很多站長在做百度推廣的時候,都會給網站做robots協議,robots協議是什么?簡單的說就是一個txt文本,那么這個txt文本有什么用處呢?
什么是robots協議?
robots是網站和蜘蛛之間的一個協議。用來防止一些不想被蜘蛛索引的頁面或內容的抓取,而且可以吧sitemap地圖的路徑放在robots協議中,這樣有助于網站地圖的抓取。能夠有效提高網站的健康度、純凈度,降低網站垃圾內容收錄
robots協議怎么寫?
robots的常用的命令一般有:
User-agent:*(這里的*代表的所有的搜索引擎種類,這句話表示可以讓所有的蜘蛛都可以訪問抓取這個網站。)
Disallow:(這個表示禁止的意思,一些不想讓蜘蛛訪問的頁面可以把路徑寫下來。)
Allow:(這個表示允許的意思,想要蜘蛛訪問頁面可以把路徑寫下來。)
robots協議的作用
通過我們上面的內容,我們對robots也有了了解。當蜘蛛抓取網站時,會優先抓取網站的robots協議,從中來獲取信息來抓取網站。那么如果沒有robots協議會對網站有什么影響呢?
1、如果沒有robots,百度爬蟲訪問網站時依舊會先訪問robots.txt,沒有的話會返回404頁面,影響雖然不大,但是也不好。
2、沒有robots,百度爬蟲默認抓取所有內容。這一點影響不是很大,但是還是取決于網站的內容,如果存在很多低質量的內容,建議還是使用robots進行限制比較好。
添加robots協議有助于蜘蛛抓取,小編建議大家還是加上robots協議這樣能夠促進蜘蛛抓取頁面,想要了解更多歡迎持續關注我們的官網。