robots.txt的寫法
robots.txt的寫法是做seo的人員必須知道的(什麼是robots.txt),但該如何寫,禁止哪些、允許哪些,這就要我們自己設定了。
百度蜘蛛是一機器,它隻認識數字、字母和漢字,而其中robots.txt就是最重要也是最開始和百度“對話”的內容。
當我們的網站在沒有建好的時候,我們不希望百度來抓取我們的網站,往往有人會禁止百度來抓取。但是,這種做法是非常不好的,這樣會讓百度蜘蛛很難再來到你的網站了。所以,我們必須現在本地搭建網站,等一切都搞好以後,再去買域名、空間,要不,一個網站的反複修改,會對你的網站有一定的不利影響。
我們的網站起初的robots.txt寫法如下:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
User-agent: * 的意思是,允許所以引擎抓取。
而Disallow: /wp-admin/和Disallow: /wp-includes/,則是禁止百度抓取我們的隱私,包括用戶密碼、數據庫等。這樣的寫法既保護了我們的隱私,也讓百度蜘蛛的抓取最大化。
如果,你想禁止百度蜘蛛抓取某一個頁麵,比如123.html,那就加一句代碼“Disallow: /123.html/”即可。
robots.txt寫好後,隻需要上傳到網站的根目錄下即可。
最後更新:2017-01-17 09:15:37