閱讀622 返回首頁    go 愛站SEO


robots.txt的寫法

  robots.txt的寫法是做seo的人員必須知道的(什麼是robots.txt),但該如何寫,禁止哪些、允許哪些,這就要我們自己設定了。 

  百度蜘蛛是一機器,它隻認識數字、字母和漢字,而其中robots.txt就是最重要也是最開始和百度“對話”的內容。 

  當我們的網站在沒有建好的時候,我們不希望百度來抓取我們的網站,往往有人會禁止百度來抓取。但是,這種做法是非常不好的,這樣會讓百度蜘蛛很難再來到你的網站了。所以,我們必須現在本地搭建網站,等一切都搞好以後,再去買域名、空間,要不,一個網站的反複修改,會對你的網站有一定的不利影響。 

  我們的網站起初的robots.txt寫法如下: 

  User-agent: * 

  Disallow: /wp-admin/ 

  Disallow: /wp-includes/ 

  User-agent: * 的意思是,允許所以引擎抓取。 

  而Disallow: /wp-admin/和Disallow: /wp-includes/,則是禁止百度抓取我們的隱私,包括用戶密碼、數據庫等。這樣的寫法既保護了我們的隱私,也讓百度蜘蛛的抓取最大化。 

  如果,你想禁止百度蜘蛛抓取某一個頁麵,比如123.html,那就加一句代碼“Disallow: /123.html/”即可。 

  robots.txt寫好後,隻需要上傳到網站的根目錄下即可。

最後更新:2017-01-17 09:15:37

  上一篇:go 網站幾個小時打不開會影響排名嗎
  下一篇:go 網站圖片怎麼去優化