网站robots.txt的相关知识分享
发表时间:2021-05-07 11:00:45
文章作者:管理员
浏览次数:789
一般情况,网站的根目录都会有一个robots.txt文件,是一个纯文本文档。那这个robots.txt文件是什么,有什么作用呢?临沂网站建设公司为您做出以下分享。
robots基本介绍
robots.txt协议(也称为爬虫协议、爬虫规则、机器人协议等。)主要用于规范爬虫抓取网页。robots协议里面记录着规则,爬虫爬取后会按照规则爬取网站。简单的理解,robots协议里面会告诉搜索引擎爬虫,那些链接是允许爬取的,那些链接是不允许抓取的。
robots协议语法
robots协议的语法分为三个。分别是User-agent、Disallow、Allow。下面我们来一起了解下。
User-agent: 指的是那些搜索引擎执行以下协议。如百度:User-agent: baiduspider。*号可以代表全部,代码为:User-agent: *。
Disallow:指禁止抓取的意思。如语法:Disallow: /a ,就是禁止搜索引擎抓取带有 /a 这个关键词的链接。
Allow:指允许抓取的意思。通常默认就是允许抓取,故很少会用到该命令。
Robots协议怎么用
1、当网站中存在隐私页面不想被搜索引擎抓取的时候,可以使用robots。
2、当网站页面存在多个链接的时候,可以用robots禁用一条,允许搜索引擎只收录一条。(通常使用静态url后,应该屏蔽动态url)
以上就是临沂网站建设公司为您做出的相关分享,希望能够使您对此有更多的了解。