閱讀791 返回首頁    go 阿裏雲 go 技術社區[雲棲]


謹慎對待spider蜘蛛提升網站收錄比

  
  seo人都是非常關注網站收錄量以及頁麵收錄比的,從搜索引擎來看,收錄與spider蜘蛛有著直接的關係。通過主動或者被動的方式,讓程序更好的收錄網站內容,是做網站seo的基礎。
  spider蜘蛛是什麼抓取互聯網中海量的鏈接呢?無外乎兩個方法。
  謹慎對待spider蜘蛛提升網站收錄比
  第一個方法是類似於掃描的方式,主動爬取鏈接。
  第二個方法是seo人通過站長平台的鏈接提交工具,將自己網站的新內容鏈接頁提交給搜索引擎。注:對於用戶主動推送的鏈接,搜索引擎是有特別的喜好的。
  很多站長會常常麵臨一個問題,那就是整站的內容長手機不被收錄,或者被收錄的量很少,或者被收錄的頁麵占比很低,即使使用了鏈接提交等方法,依舊如此。對於收錄問題,是有很多影響因素的,如內容質量度,站點質量,頁麵本身的質量等,其中與spider蜘蛛的關係頗大,本文就這個因素,做一些說明。希望seoer把這個方麵把控好。
  有哪些因素會造成spider蜘蛛無法正常爬取網站內容?
  1:錯誤的robots協議設置。網站的robots文件是搜索引擎看網站的第一個文件,這個文件的設置錯誤如禁止搜索引擎爬取會導致無法受理。小明seo以前就犯了類似的錯誤。
  2:內容本身的質量度。搜索引擎算法不斷完善,對於大部分的低質量內容都可以進行識別,對於優質內容如時效性內容會優先進行質量評估,對於低質量內容如空洞內容,過度優化頁麵進行降分對待。這與百度一直提倡的優質內容遙相唿應。小明關於寫作內容,有寫作”百度判定網站優質內容的幾個維度“,可仔細閱讀。
  3:spider蜘蛛無法正常抓取。除開robots協議禁封以外,還存在別的方麵導致蜘蛛無法爬取。典型的情況是網站打開速度慢,服務器不穩定或者宕機,這些情況就會導致收錄問題。
  4:seo容易忽略的網站抓取配額問題。通常情況下,蜘蛛會根據網站的日常更新頻率下發特定的抓取配額,這種情況下不會影響抓取收錄問題,但有的時候網站被黑等情況,會導致網站的頁麵數量爆發式增長。一方麵這些頁麵屬於灰色頁麵,另外一方麵,爆發的新頁麵會因為網站原先的抓取配額限製而導致網站造成的頁麵無法被爬取和收錄。
  影響網站收錄的原因方方麵麵,采用排查法,從各種方麵排查不正常收錄的原因,才能提升網站的收錄量與收錄比。
  注:索引庫是分級的,內容收錄後,進入優質索引庫,產生排名的幾率才會更高。這說明:網站收錄並不是量大就好。
  來源:小明seo,地址:https://www.xminseo.com/2827.html

最後更新:2017-11-16 17:04:03

  上一篇:go  安華金和成為阿裏“數據安全合作夥伴計劃”首批成員
  下一篇:go  apache命令