spider(蜘蛛)在訪問一個(gè)網(wǎng)站時(shí),會(huì)首先會(huì)檢查該網(wǎng)站目錄是否有一個(gè)文件叫做robots.txt的純文本文件,這個(gè)文件用于指定spider(蜘蛛)在你網(wǎng)站是的抓取的范圍.比如派思網(wǎng)絡(luò)的robots.txt文件
一、robots txt是干什么用的
robots txt寫法詳解及當(dāng)心事項(xiàng)
一個(gè)網(wǎng)站中有良多個(gè)文件,其中包括了后盾過程言件、前臺(tái)模板文件、圖片等等。這之中有一些貨色我們是不渴望被百度蜘蛛抓取的,怎么辦呢?搜查過程考 慮到了這一點(diǎn),蜘蛛在抓取網(wǎng)站版面之前會(huì)先拜會(huì)網(wǎng)站根目錄下的robots txt文件,萬一此文件存在那么按照robots txt限量的范疇舉行抓 取,萬一不存在,則默感受能夠抓取全體。
二、robots txt在seo中在作用
前一篇文章"度娘疏忽robots txt文件的存在" 中我們能夠看到,百度一個(gè)版面抓取的兩個(gè)網(wǎng)址,這么會(huì)拆開網(wǎng)頁的權(quán)重,假定咱們寫好robots txt就能夠遏止這么的情形發(fā)生。robots txt 在seo中在作用即便屏障無須要的版面抓取,為管用版面取得蜘蛛抓取的時(shí)機(jī)。因?yàn)槠琳蠠o須要版面抓取從而能夠版面權(quán)重,節(jié)儉網(wǎng)絡(luò)資源最后我們能夠?qū)⒕W(wǎng)站 輿圖放在里面,方便蜘蛛抓取網(wǎng)頁。
三、哪些文件是能夠用robots txt屏障的
網(wǎng)頁中的模板文件、款式表文件以及后臺(tái)的某些文件即便唄搜查引擎抓取了也沒什么作用,反而是浪費(fèi)網(wǎng)站資源,這類文件能夠屏障萬一網(wǎng)頁中的某些特定版面好像接洽我們、公司內(nèi)部某些無須要公布的照片這些都能夠依據(jù)切實(shí)情形舉行屏障。
robots的基本設(shè)置: User-agent: *
Disallow: /data/
Disallow: /dede/
Disallow: /images/
Disallow: /include/
Disallow: /plus/
Disallow: /special/
Disallow: /templets/
Disallow: /uploads/
Sitemap: http://m.newbst.com/sitemap.xml
新聞名稱:robots文件對網(wǎng)站seo優(yōu)化有什么作用?
文章來源:http://m.newbst.com/news49/254599.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供全網(wǎng)營銷推廣、網(wǎng)站收錄、網(wǎng)站設(shè)計(jì)公司、網(wǎng)站內(nèi)鏈、網(wǎng)站排名、軟件開發(fā)
廣告
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源:
創(chuàng)新互聯(lián)