如何使用robots禁止各大搜索引擎爬虫爬取网站

搜索引擎在爬取网站前会做什么?

一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

robots.txt文件的内容和结构是怎样的?

  • robots.txt文件必须是放在文件根目录上:

例如:

admin

└─templates

header.tpl.php

task_add.tpl.php

└─robots.txt

首先常用的命令为

  • User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配
  • Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取
  • Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时
  • Allow : 允许爬取指定页面, 为 / 时爬取整站

搜索引擎别称

  • Googlebot 谷歌
  • Baiduspider 百度
  • 等等

搜索引擎的好处和坏处是什么?

  • 不好的地方会增加网站的访问负荷;有时,还会涉及到用户的隐私;
  • 好的地方也是增加了访问流量;

一般彻底防止爬虫用什么方法?

  • 如果需要防止的话,就需要监测网站,把一些不良网络爬虫的给堵止掉,一般是封IP。
  • robots.txt只能防止有品的爬虫来爬

如何使用robots禁止各大搜索引擎爬虫爬取网站

  • 原来一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)
  • 下面我们就来说一说如何设置robots.txt文件
  • robots.txt文件必须是放在文件根目录上:

例如:

admin

└─templates

header.tpl.php

task_add.tpl.php

└─robots.txt

首先常用的命令为

  • User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配
  • Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取
  • Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时
  • Allow : 允许爬取指定页面, 为 / 时爬取整站

搜索引擎别称

  • Googlebot 谷歌
  • Baiduspider 百度
  • 等等

类似我们测试环境就设置了

User-agent : / 所有搜索引擎

Disallow : / 禁止整站

总结

User-agent: *
Disallow: /
就可以了..

© 版权声明
THE END
喜欢就支持一下吧
点赞16 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片