欢迎光临
我们一直在努力

Robots.txt文件全解

一、robots.txt有什么用?

如果您不希望互联网爬虫(又叫蜘蛛、Crawler、Spider等)抓取您网站的每一个公开的链接,而只抓取您指定的某一部分链接,或根本不抓取任何链接,你可以使用robots.txt向搜索引擎汇报爬虫信息。

 

二、怎么使用robots.txt?

建议您在站点的根目录下存放一个robots.txt文件。我们的爬虫在第一次抓取您站点时会首先确认根目录下是否有robots.txt文件。例如,您的网站地址是www.abc.com,我们会首先抓取http://www.abc.com/robots.txt再进行后续操作。如无法访问robots.txt文件,系统则默认为您站点的每个链接都可以被抓取。这就是谢来恩SEO实例分析博客(http://www.seoshili.cn)不设置robots.txt文件的原因。

 

三、怎么写robots.txt文件?

robots.txt是个很简单的文本文件,您只要标明“谁不能访问哪些链接”即可。

在文件的第一行写:

User-Agent: Baiduspider

这就告诉了爬虫下面的描述是针对名叫Baiduspider的爬虫。您还可以写:

User-Agent: *

这就意味着向所有的爬虫开放。需要注意的是一个robots.txt文件里只能有一个"User-Agent: *"。

接下来是不希望被访问的链接前缀。例如:

Disallow: /private

这就告诉爬虫不要抓取以"/private"开头的所有链接。包括/private.html,/private/some.html,/private/some/haha.html。如果您写成:

Disallow: /

则表明整个站点都不希望被访问。您也可以分多行来指定不希望被抓取的链接前缀,例如:

Disallow: /tmp

Disallow: /disallow

那么所有以"/tmp"和"/disallow"开头的链接都不会被访问了。

最后形成的robots.txt文件如下:

User-Agent: Baiduspider

Disallow: /tmp

Disallow: /private

请注意,如果您的robots.txt文件里有中文等非英语字符,请确定该文件是由UTF-8编码编写。

 

四、怎样分别指定不同的网络爬虫?

这个操作很简单,只要分别指定“谁能或不能访问怎样的链接”即可。例如:

User-Agent:  YodaoBo

Disallow: 

User-Agent: *

Disallow: /private

上面的robots.txt表明,名为Baiduspider的爬虫可以抓所有的内容,其它名称的爬虫不能抓以"/private"开头的链接。

 

五、robots.txt范例

淘宝网的robots.txt

User-agent: Baiduspider

Disallow: /

User-agent: baiduspider

Disallow: /

搜狗的robots.txt

User-agent: *

Allow: /help/

Allow: /fuwu/

Allow: /index.html

Disallow: /websearch

Disallow: /web?

Disallow: /websnapshot.do?

Disallow: /sohu?

Disallow: /websearch/

Disallow: /sohu/

Disallow: /site?

Disallow: /xml?

Disallow: /express/

ADMIN5站长网的robots.txt

User-agent: * 

Disallow: /plus/feedback_js.php

Disallow: /plus/mytag_js.php

Disallow: /plus/rss.php

Disallow: /plus/search.php

Disallow: /plus/recommend.php

Disallow: /plus/stow.php

Disallow: /plus/count.php

赞(0) 打赏
未经允许不得转载:优友网 » Robots.txt文件全解
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

大前端WP主题 更专业 更方便

联系我们联系我们

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏