操比片-操比网站-操比网址-操操日日-操操社区

好120健康網-中國醫療健康行業服務平臺! VIP快審
首頁 新聞資訊 科技網絡

帶你玩轉robots協議 robots協議怎么寫 新手必備(2)

時間:2017-05-21 15:28 來源:未知 作者:好120健康網 人氣:
【導讀】:最簡單的robots.txt只有兩條規則: 1.User-agent:指定對哪些爬蟲生效 2.Disallow:指定要屏蔽的網址 整個文件分為x節,一節由y個User-agent行和z個Disallow行組成。一節就表示對User-agent行指定的y個爬蟲屏蔽z個...

    最簡單的robots.txt只有兩條規則:

    1.User-agent:指定對哪些爬蟲生效

    2.Disallow:指定要屏蔽的網址

    整個文件分為x節,一節由y個User-agent行和z個Disallow行組成。一節就表示對User-agent行指定的y個爬蟲屏蔽z個網址。這里x>=0,y>0,z>0。x=0時即表示空文件,空文件等同于沒有robots.txt。

    下面詳細介紹這兩條規則:

    User-agent

    爬蟲抓取時會聲明自己的身份,這就是User-agent,沒錯,就是http協議里的User-agent。robots.txt利用User-agent來區分各個引擎的爬蟲。

    舉例說明:google網頁搜索爬蟲的User-agent為Googlebot,下面這行就指定google的爬蟲。

    User-agent:Googlebot

    如果想指定所有的爬蟲怎么辦?不可能窮舉啊,可以用下面這一行:

    User-agent: *

    可能有的同學要問了,我怎么知道爬蟲的User-agent是什么?這里提供了一個簡單的列表:爬蟲列表當然,你還可以查相關搜索引擎的資料得到官方的數據,比如說google爬蟲列表,百度爬蟲列表Disallow

    Disallow 行列出的是要攔截的網頁,以正斜線 (/) 開頭,可以列出特定的網址或模式。

    要屏蔽整個網站,使用正斜線即可:

    Disallow: /

    要屏蔽某一目錄以及其中的所有內容,在目錄名后添加正斜線:

    Disallow: /無用目錄名/

    要屏蔽某個具體的網頁,就指出這個網頁。

    Disallow: /網頁。html

    Disallow還可以使用前綴和通配符。

    要屏蔽目錄a1-a100,可以使用上面的方式寫100行,或者Disallow:/a

    但是需要注意,這樣會把任何以a開頭的目錄和文件也屏蔽,慎用。如果需要屏蔽a1-a100,但是不屏蔽a50,怎么辦?同學們可以思考一下,這個問題我們留到下一節。

    要阻止特定類型的文件(如 .gif),請使用以下內容:

    Disallow: /*.gif$

    *匹配任意個字符,$匹配url結束,具體就不解釋了吧,不了解的同學去自學一下通配符。

    提示一下,Disallow的內容區分大小寫。例如,Disallow:/junkfile.asp 會屏蔽 junkfile.asp,卻會允許Junk_file.asp。

    最最后,通配符不是所有搜索引擎都支持,使用要小心。沒辦法,誰讓robots.txt沒有一個大家都承認的標準呢。

    實例 ###

    百度網頁搜索

    User-agent: Baiduspider

    Disallow: /baidu

    Disallow: /s?

    User-agent: Googlebot

    Disallow: /baidu

    Disallow: /s?

    Disallow: /shifen/

    Disallow: /homepage/

    Disallow: /cpro

    User-agent: MSNBot

    Disallow: /baidu

    Disallow: /s?

    Disallow: /shifen/

    Disallow: /homepage/

    Disallow: /cpro

    …

    現在讀懂這個應該毫無壓力了吧,順便說一句百度的robots.txt比較啰嗦,有興趣的同學可以簡化一下。

    高階玩法

    首先聲明:高級玩法不是所有引擎的爬蟲都支持,一般來說,作為搜索引擎技術領導者的谷歌支持的最好。

    例子:google robots.txt

    allow

    還記得上面的問題嗎?如果需要屏蔽a1-a100,但是不屏蔽a50,怎么辦?

    方案1:

    Disallow:/a1/

    Disallow:/a2/

    …

    Disallow:/a49/

    Disallow:/a51/

    …

    Disallow:/a100/

    方案2:

    Disallow:/a

    Allow:/a50/

    ok,allow大家會用了吧。

    順便說一句,如果想屏蔽a50下面的文件private.html,咋整?

    Disallow:/a

    Allow:/a50/

    Disallow:/a50/private.html

    聰明的你一定能發現其中的規律,對吧?誰管的越細就聽誰的。

    sitemap

    前 面說過爬蟲會通過網頁內部的鏈接發現新的網頁。但是如果沒有連接指向的網頁怎么辦?或者用戶輸入條件生成的動態網頁怎么辦?能否讓網站管理員通知搜索引擎 他們網站上有哪些可供抓取的網頁?這就是sitemap,最簡單的 Sitepmap 形式就是 XML 文件,在其中列出網站中的網址以及關于每個網址的其他數據(上次更新的時間、更改的頻率以及相對于網站上其他網址的重要程度等等),利用這些信息搜索引擎 可以更加智能地抓取網站內容。

    sitemap是另一個話題,足夠開一篇新的文章聊的,這里就不展開了,有興趣的同學可以參考sitemap新的問題來了,爬蟲怎么知道這個網站有沒有提供sitemap文件,或者說網站管理員生成了sitemap,(可能是多個文件),爬蟲怎么知道放在哪里呢?

文章標簽:
    robots協議怎么寫,百度robots協議,360 robots協議,robots.txt協
相關推薦

版權聲明:

1、本文系會員投稿或轉載自網絡,版權歸原作者所有,旨在傳遞信息,不代表看本站的觀點和立場;

2、本站僅提供信息發布平臺,不承擔相關法律責任;

3、若侵犯您的版權或隱私,請聯系本站管理員刪除。

好120健康網 m.jlut.cn 皖ICP備19001157號-13
主站蜘蛛池模板: 国产网友自拍 | 天海翼一区二区三区高清视频 | 婷婷久久激情综合啪啪 | 午夜91| 国产区精品高清在线观看 | 国产在线播放你懂的 | 91精品福利老司机在线观看 | 国产美女小视频 | 国产成人涩涩涩视频在线观看免费 | 久久久综合九色合综国产 | 精品免费久久久久久久 | 国产大量女主播精品视频 | 国产成人亚洲综合 | 青青草综合视频 | 日本免费高清一级毛片 | 成人h免费观看视频 | 国产v在线在线观看羞羞答答 | 黄色国产一级片 | 国产的老妇人 | 国产亚洲91 | 欧美一区二区在线观看免费网站 | 亚洲毛片网 | 福利国产精品 | 日本一级大黄毛片免费基地 | 亚洲精品第一区二区三区 | 成人在线观看免费爱爱 | 黄片毛片在线观看 | 日本欧美不卡一区二区三区在线 | 精品亚洲成a人片在线观看 精品亚洲成a人在线播放 | 精品中文字幕一区二区三区四区 | 午夜激情影院 | 一级a俄罗斯毛片免费 | 福利片第一页 | 天天影视色香欲综合网网站麻豆 | 91外围| 欧美日韩性大片 | 麻豆传媒国产 | 免费看国产做爰大片 | 亚洲欧美另类日本久久影院 | 国产精品色婷婷在线观看 | 国产美女白丝袜精品_a不卡 |