欢迎光临
我们一直在努力

如何通过robot.txt文件来控制蜘蛛抓取

如何通过robot.txt文件来控制蜘蛛抓取

  做SEO没有人不知道蜘蛛吧,robot.txt文件就是和蜘蛛交流的文件,很多人都会说介绍要怎么让蜘蛛来爬行,却很少人知道用robot.txt去操控蜘蛛,robot.txt用得好的话蜘蛛可以为你所用。下面我来介绍一下如何操控蜘蛛。
  一. 屏蔽相同页面
  搜索引擎是个喜新厌旧的东西,不会去收录重复的也或者已有的页面,即使收录了后期也会被删掉,所以一开始我们可以打开robots文件,写入禁止蜘蛛来读取这个页面的代码,给蜘蛛来下个好印象,反之印象分会大大减分,影响将来蜘蛛来爬行网站
  二.维护网站安全
  利用robots文件可以保护网站安全,有些人可能会问如何保护网站,如果不用robots文件屏蔽掉蜘蛛抓取admin后台页面或后台以下的文件,蜘蛛就会默认收录这些页面,让黑客有机可趁。
  三.盗链
  一般盗链也就几个人,可是一旦被搜索引擎“盗链”那家伙你100M宽带也吃不消,如果你做的不是图片网站,又不想被搜索引擎“盗链”你的网站图片。
  四.网站地图提交
  Robots文件还支持网站地图提交功能,提交了网站地图可以让蜘蛛更好地爬行网站内容,但是一大部分人做了网站却不去提交网站地图,虽然是没有很大的影响建议提交。
  五. 禁止二级域名抓取
  一些网站会对VIP会员提供一些特殊服务,却又不想这个服务被搜索引擎检索到。
  以上几点足够让你掌控蜘蛛不少了,就像人与人之间需要沟通,我们和蜘蛛也需要沟通。
  本文来源:合肥SEO,原文地址:http://www.seo-hf.cn/990/

赞(0) 打赏
未经允许不得转载:优友网 » 如何通过robot.txt文件来控制蜘蛛抓取
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

大前端WP主题 更专业 更方便

联系我们联系我们

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏