免费观看又色又爽又黄的小说免费_美女福利视频国产片_亚洲欧美精品_美国一级大黄大色毛片

PHPCMS v9 的robots.txt文件詳解

2016-09-04    分類: 網站建設

robots.txt是一個協議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。百度官方建議,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。 關于robots.txt文件的寫法,我們來看一下phpcms內容管理系統的robots.txt文件:

#
# robots.txt for PHPCMS v9
#
User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符
Disallow: /caches/禁止爬尋緩存目錄下的所有文件
Disallow: /phpcms/禁止爬尋phpcms的核心目錄下的目錄
Disallow: /install/禁止訪問安裝包目錄下的目錄
Disallow: /phpsso_server/禁止爬尋phpsso_server目錄下的目錄
Disallow: /api/禁止爬尋接口目錄下的目錄
Disallow: /admin.php/ 這里定義是禁止蜘蛛爬尋admin目錄下面的目錄

上面的robots.txt文件的寫法,都是禁止蜘蛛爬尋相關目錄的,那么允許爬尋目錄怎么寫呢?
我們把上面的寫法改成允許蜘蛛爬尋目錄:只需把“Disallow”替換成“Allow”即可。當然這樣做是沒有意義的,一般情況下,我們只寫禁止爬尋的目錄,默認情況下都是允許訪問的。

如果我們不設置禁止爬尋目錄會出現什么情況呢?

比如我們把上面的"Disallow: /admin.php/"改成"Allow: /admin.php/",
這樣也就允許蜘蛛爬尋網站后臺的相關網頁,當我們在百度搜索時,有時看到一篇文章,我們點擊,打開的網頁告訴你沒有權限查看。有些情況下,我們不允許蜘蛛爬尋某些頁面鏈接的某部分。比如很多論壇或者博客的評論,允許游客寫個人主頁的鏈接,當游客發表評論時昵稱會帶上個人主頁的超鏈接,當我們點擊時會跳轉到個人主頁。這個功能可以使個人主頁帶來更多的展現機會。后面的部分是評論者所寫的個人主頁的鏈接。大家當然看不明白,因為我用函數處理過了。我的robots.txt文件是這樣寫的:
Disallow: /tourl/* 這是告訴蜘蛛,不要爬尋http://seo.cdkjz.cn/wangzhan后面的鏈接了。這樣做的作用是,防止本網站的權重分流到比本站權重低的網站去。站長們在做友情鏈接時,一般都是要求交換pr值相等鏈接,原因也就在于此。

新聞名稱:PHPCMS v9 的robots.txt文件詳解
分享路徑:http://m.newbst.com/news/46116.html

成都網站建設公司_創新互聯,為您提供外貿建站網站設計公司網站營銷面包屑導航外貿網站建設動態網站

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

成都seo排名網站優化