2021-11-26 分類: 網站建設
站長們在做網站優化的時候,都會給網站做robots協議,什么是robots協議呢?其實說白了就是一個txt文本,那么這個txt文本有什么用處呢?今天創新互聯小編來給大家說一下。
什么是robots協議?
robots是網站和搜索引擎之間的一個協議。用來防止一些不想被搜索引擎索引的頁面或內容的抓取,而且可以吧sitemap地圖的路徑放在robots協議中,這樣有助于網站地圖的抓取。能夠有效提高網站的健康度、純凈度,降低網站垃圾內容收錄
robots協議怎么寫?
robots的常用的命令一般有:
User-agent:*(這里的*代表的所有的搜索引擎種類,這句話表示可以讓所有的搜索引擎都可以訪問抓取這個網站。)
Disallow:(這個表示禁止的意思,一些不想讓搜索引擎訪問的頁面可以把路徑寫下來。)
allow:(這個表示允許的意思,想要搜索引擎訪問頁面可以把路徑寫下來。)
robots協議的作用
通過我們上面的內容,我們對robots也有了了解。當搜索引擎王文網站時,會優先訪問網站的robots協議,從中來獲取信息來抓取網站。那么如果沒有robots協議會對網站有什么影響呢?
1、如果沒有robots,搜索引擎蜘蛛訪問網站時依舊會先訪問robots.txt,沒有的話會返回404頁面,影響雖然不大,但是也決對不好。
2、沒有robots,搜索引擎蜘蛛默認抓取所有內容。這一點影響不是很大,但是還是取決于網站的內容,如果存在很多低質量的內容,建議還是使用robots進行限制比較好。
綜合上面所說的內容,robots協議還是加上比較好,沒有很麻煩,我們一般會把robots放在FTP的根目錄下,有助于蜘蛛的抓取。以上就是創新互聯小編給大家所介紹的robots協議的作用了,先要了解更多網站優化的知識,就持續關注我們吧。
新聞標題:網站的robots.txt文本有什么用處呢
文章起源:http://m.newbst.com/news26/137576.html
成都網站建設公司_創新互聯,為您提供網站內鏈、做網站、靜態網站、電子商務、服務器托管、品牌網站制作
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯
猜你還喜歡下面的內容