閱讀688 返回首頁    go 機器人


robots文件的使用-SEO優化係列教程37

robots文件的使用-SEO優化係列教程(37)

robots.txt是一個協議。robots協議(也稱為爬蟲協議、機器人協議等)的全稱是“網絡爬蟲排除標準 ”(robots exclusion protocol)。網站通過robots協議告訴搜索引擎哪些頁麵可以抓取,哪些頁麵不能抓取。今天我 們就來講講robots文件的使用和robots.txt文件的作用,一起來看看吧!

robots.txt文件的作用

當一個搜索引擎訪問一個站點時。它會首先檢查該站點根目錄下是否存在robots.txt。 如果存在,搜索機器人就會按照該文件中的內容確定訪間的範圍;如果該文件不 存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁麵。

如果將網站視為酒店裏的一個房間,robots.txt就是主人在房間門口懸掛的“請勿 打擾”的提示牌。這個文件告訴來訪的搜索引掌哪些房間可以進入和參觀,哪些房間 因為存放貴重物品,或可能涉及住戶及訪客的隱私而不對搜索引擎開放。但是,robot. txt不是命令,也不是防火牆,如同守門人無法阻止竊賊等惡意闖入者。

robots協議可以屏蔽一些網站中比較大的文件,如圖片、音樂、視頻等內容。節省 服務器帶寬;也可以屏蔽站點的一些死鏈接,禁止搜索引掌抓取。

robots文件的寫法

1.robots文件的簡單寫法

robots文件最簡單的寫法隻有兩行:

第一行:user-agent:*

第二行:Disallow:(或Allow:)意思為:搜索引擎可以抓取網結的所有文件。

2.robots文件的其他寫法

ser-aget:*這裏的·代表所有的搜索引摩種類,·是一個通配符

Disallow:/admin/禁止抓取admin目錄及目錄下的文件。

Disallow:/require/禁止抓取require目錄及目錄下的文件。

Disallow:/ABC/禁止抓取ABC目錄及目錄下的文件

Disallow:/*?*禁止訪問網站中所有包含問號()的網址。

Disallow:/ab/adc.html 禁止抓取ab文件夾下麵的adc.html文件。

注意:在robots文件中,可以將網站地圖的鏈接放在後麵,方便搜索引擎首先訪問並且抓取。

robots文件的設置

先檢查網站是否有robots文件,直接在域名後輸入robotstt 即可,如https/www. haol23.com/robots.txt,如果沒有,就按照以下步驟設置:

第一步:在桌麵建立一個記事本,命名為robots.tt:

第二步:寫入以下兩行英文代碼,保存。User-agent:* Disallow

第三步:連接FTP,將robots.tt文件上傳到FTP根目錄中,

第四步:通過訪問域名/robots.txt,檢查是否正常訪問。正常訪問說明設置成功。

注意:robots.txt的命名都是小寫。

以上就是對robots文件的使用和robots.txt文件的作用的介紹,感謝大家的收看,觀看過後 的朋友們趕快運用起來吧!

(本文出自廣州新川教育,專業網絡營銷、seo培訓)

最後更新:2017-10-07 23:31:24

  上一篇:go 柯潔哭了,李嘉誠笑了,“阿爾法狗”們崛起會搶走誰的飯碗?
  下一篇:go 大趨勢!人工智能留給了中小學生一個未來