收錄是指網頁被搜索引擎抓取到,然后放到搜索引擎的庫里,等到人們搜索相關詞匯的時候,可以在搜索結果頁展示列表看到已經收錄的頁面及頁面信息。我們所說的“網頁被收錄”即能在搜索結果頁看到相關的頁面。反之,“網頁沒有被收錄”問題就復雜一些,因為在搜索結果頁沒有看到對應的頁面,并不意味著網頁就沒在搜索引擎的庫里,或者說就沒有被收錄,有可能是網頁針對當前的搜索詞匯排名不好,在760個記錄之外,因此沒有得到展示。
收錄涉及網頁被搜索引擎蜘蛛抓取,然后被編入搜索引擎的索引庫,并在前端被用戶搜索到這一系列的過程。對SEO人員或者希望對自己網站進行優化的非專業SEO人員來說,了解頁面是如何被搜索引擎收錄的,了解搜索引擎的收錄原理,都是極有好處的,能幫助你在進行網站SEO的時候盡量遵循收錄的規律,提高網站被收錄的比例。
搜索引擎在抓取網頁的時候,可能會遇到各種情況,有的頁面抓取成功,有的抓取失敗。怎么顯示一個頁面的實際抓取結果呢主要是通過返回碼進行示意,代表抓取成功與否和遇到的問題。比如我們常見的,有時候打開一個頁面,頁面一片空白,上面只顯示404。這里的404就是一種返回碼,代表當前抓取的頁面已經失效,遇到顯示404的頁面,如果短期內搜索,蜘蛛再發現這個URL,也不會對其進行抓取。
有時候,會返回503,503返回碼代表網站臨時無法訪問,可能是網站服務器關閉或者其他臨時措施造成的網頁無法訪問,一般來說,蜘蛛還會繼續抓取幾次。如果網站恢復正常,URL仍然被當作正常URI。處理,如果服務器一直處于不可訪問狀態,那么搜索引擎就會將這些URL徹底從庫中刪除,這就要求我們必須維護網站的穩定性,盡量避免臨時關閉的情況發生。返回碼403是禁止訪問狀態,一般來說,如同503一樣,如被多次訪問仍處于禁止訪問狀態,就會被搜索引擎從庫里面刪除。
在返回碼中,有一類需要格外注意,就是301。301代表永久性移除,當前URL被永久性重定向到另外的uRL。一般來說,因為改版等原因,部分URL需要永久被替換為新URL,就必須使用返回碼301進行處理,這樣能把權重等一并帶過去,避免網站的流量損失。
返回碼301的優化寫法如下。
(1)創建一個htaccess.txt文件。
(2)在htaccess.txt里寫好返回碼30l的跳轉信息。
假設舊的URL為abc.com,需要重定向到www.abc.com,需在文件里寫如下信息。
RewriteEngine on
RewriteCond%{http_host}abc.com[NC]
RewriteRule^(.*)$ http://www.abc.com/$1[L,R=301]
(3)將htaccess.txt上傳到FTP,然后將htaccess.txt修改為.htaccess。
需要提醒的是目前htaccess只適用于Linux系統,并需要虛擬主機支持,因此,在考慮htaccess文件處理返回碼301的時候,需要查看虛擬主機是否完全支持。
實際上,在重定向的處理上存在多種方式,簡單來說,重定向可以分為http30x重定向、meta refresh重定向和js重定向。另外,大的搜索引擎公司,比如谷歌和百度都確認支持Canonical標簽,可以通過制定一個權威頁面的方式,引導蜘蛛只索引一個權威頁面,從實際效果上來說,也是一種間接的重定向。在實際抓取過程中,蜘蛛會對各種重定向效果進行識別。
重定向的方法有多種,但是從SEO角度來說,如果是永久跳轉的頁面,盡量在采用返回碼301的跳轉方式。另外,從
時間結果來看,百度對Canonical的支持并不如谷歌好,采用Canonical未必能得到如期效果。有些網站通過不同的路徑進入同
一頁面,可能會出現多個URL的情況,當面對這種情況時,可能需要一些處理技巧,關于Canonical的使用技術可參見本書關于Canonical的專門講解。
外鏈等因素對搜索的排名是有影響的,那么在抓取環節是否也有影響呢百度在它的抓取政策上有優先級的說明,即執行包括“深度優先遍歷策略、寬度優先遍歷策略、PR優先策略、反鏈策略、社會化分享指導策略等”。同時,這也說明每個策略各有優劣,在實際情況中往往是多種策略結合使用才能達到最優的抓取效果。從這段官方說明里面可以看到PR優先策略、反鏈策略、社會化分享等字眼,我們可以認為,百度在實際抓取的時候,其實都考慮了這些因素,只是權重可能有所不同,因此,盡量提高網頁PR,增加更高質量的外鏈,進行高質量的社會化分享,對網站的SEO工作是有積極意義的。
另外,針對互聯網存在的大量“盜版”“采集”的網頁情況,在抓取的過程中,蜘蛛會通過技術判斷頁面是否已經被抓取過,并對URI.不同但是實際內容相同的頁面的URL進行歸一化處理,即視作一個URL,。也就是告訴SEO人員,不要通過大量創建頁面的方式來獲得更多的搜索資源,如果頁面很多,但是每個頁面的內容重復性很高,或者僅是uRL中包含無效參數來實現多個頁面,搜索引擎仍然把這些URI。當作一個uRL處理,即網站頁面不是越多越好,通過功利的方式拼湊網頁,大量部署長尾,但是頁面質量堪憂,效果會適得其反。如果大量此類頁面被搜索引擎判斷為低質量頁面,可能會影響到整站的SEO效果。
蜘蛛在抓取的過程實際是依據鏈接不斷往下探索的過程,如果鏈接之間出現短路,蜘蛛就無法往前爬了。在真實的網站運營中,我們可以看到很多網頁實際潛藏在網站后端,蜘蛛是無法抓取到的,比如沒有預留入口鏈接,或者入口鏈接已經失效等,這些無法抓取到的內容和信息,對于蜘蛛來說就是一個個的孤島,對SEO人員來說就是沒有完全發揮內容的引流作用。同時,因為網絡環境或者網站規范等原因也可能導致蜘蛛無法爬行。
如何解決信息無法被抓取到的問題幾個可行的辦法如下。
?采用搜索引擎平臺提供的開發平臺等數據上傳通道,可以針對數據進行獨立的提交。
?采用Sitemap提交方式。大型網站或者結構比較特殊的網站,沉淀了大量的歷史頁面,這些歷史頁面很多具有SEO的價值,但是蜘蛛無法通過正常的爬行抓取到,針對這些頁面,建立Sitemap文件并提交給百度等搜索引擎是非常必要的。
蜘蛛在爬行網站的時候,會遵循網站的協議進行抓取,比如哪些網頁可以給搜索引擎抓取,哪些不允許搜索引擎抓取。常見的協議有HTTP協議、HTTPS協議、Robots協議等。
HTTP協議規范了客戶端和服務器端請求和應答的標準。客戶端一般是指終端用戶,服務器端指網站。終端用戶通過瀏覽器、蜘蛛等向服務器指定端口發送HTTP請求。發送HTTP請求會返回對應的HTTP Header信息,我們可以看到包括是否成功、服務器類型、網頁最近更新時間等內容。HTTPS協議是一種加密協議,一般用戶安全數據的傳輸。HTTPS是在HTTP下增加了SSL層,這類頁面應用比較多的是和支付相關或者內部保密信息相關的網頁。蜘蛛不會自動爬行該類網頁。因此,從SEO角度考慮,在
建站的時候,盡量對頁面的性質進行區分,對非保密頁面進行HTTP處理,才能實現網頁的抓取和收錄。
網站題目:網站優化之頁面抓取過程分析
文章路徑:http://m.newbst.com/news31/129281.html
成都網站建設公司_創新互聯,為您提供小程序開發、外貿網站建設、網站內鏈、網站營銷、域名注冊、品牌網站建設
廣告
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源:
創新互聯