网站技术

Robots协议(也称爬虫协议,机器人协议等)的全称是“网络爬虫排除协议”,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots.txt的作用:可以让蜘蛛更高效的爬行网站;可以阻止蜘蛛爬行动态页面,从而解决重复收录的问题;可以减少蜘蛛爬行无效页面,节省服务器带宽;如何制作Robots.txt文件?创建一个文本文档,重命名为Robots.txt,编写规则,用FTP把文件上传到空间;创建robots.txt文件需注意:1.必须是txt结尾的纯文本文件;2.文件名

2022-02-19  626