浏览量:183次
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫扫除规范”(RobotsExclusionProtocol),网站经过Robots协议通知查找引擎哪些页面可以抓取,哪些页面不能抓取
是查找引擎的一部分来定位和索引互联网上的每个可能答复查找恳求的网页,一般只在评论robots的HTML标签或许robots.txt文件的时分运用。
[声明]
1.本博客内容均为网络转载,出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们删除;
2.对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性;
3.对于不当转载或引用本网站内容而引起的任何纷争或其他损失,本网站不承担责任。
4.如果您发现本网站的内容侵犯了您的版权,请您的相关内容发至此邮箱【kefu@zmk188.com】,我们在确认后,会立即删除,