robts文件的介绍、写作语法及robotsmeat标签的写法-成都快上网建站

robts文件的介绍、写作语法及robotsmeat标签的写法

robots文件是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。因此,robots的优化会直接影响到搜索引擎对网站的收录情况。

在浙江等地区,都构建了全面的区域性战略布局,加强发展的系统性、市场前瞻性、产品创新能力,以专注、极致的服务理念,为客户提供成都做网站、成都网站制作、成都外贸网站建设 网站设计制作按需网站策划,公司网站建设,企业网站建设,高端网站设计,网络营销推广,成都外贸网站建设公司,浙江网站建设费用合理。

1、robots介绍

搜索引擎机器人又叫搜索蜘蛛,在访问一个网站时,它会首先检查该站点根目录下是否存在robots.txt文件。如果存在,搜索引擎机器人就会按照该文件中的内容来确定访问范围;如果该文件不存在,那么搜索引擎机器人就会沿着链接去抓取。

robots.txt必须放在一个网站的根目录下,而且文件名必须全部小写。如:fuwei.cdcxhl.com/robots.txt。

只有在需要禁止抓取某些内容时,写robots.txt才有意义。有的服务器设置有问题,robots文件不存在时会返回200状态码及一些错误信息,而不是404状态码,这有可能是搜索机器人错误解读robots文件信息,所以建议就算允许抓取所有内容,也要建一个空的robots文件。

2、robots写作语法

首先我们来看一个范例:fuwei.cdcxhl.com/robots.txt/

user-agent后面为搜索机器人名称,如果是“*”号,则泛指所有的搜索引擎机器人;Disallow 后面是不允许访问文件目录,如果目录为空则不起任何禁止作用。

下面例举一些robots.txt的具体用法。

允许所有的搜索机器人访问,格式如下:

user-agent: *

Disallow:

或者也可以创建一个空的robots.txt文件。

禁止所有搜索引擎访问网站的任何部分,格式如下:

user-agent: *

Disallow: /

禁止所有搜索引擎访问网站的某几个部分,比如需要禁止访问a、b、c、目录:

user-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

禁止某个搜索引擎的访问,如禁止百度访问:

user-agent: Baiduspider

Disallow: /

只允许某个搜索引擎的访问,如只对百度访问

user-agent: Baiduspider

Disallow:

user-agent: *

Disallow: /

3、robots meta写法

另外,有必要进行拓展说明,对robots meta进行一些介绍:

robots meta标签中没有大小写之分,mame=”robots”表示所有搜索引擎,可以针对某个具体搜索引擎写为:mame=”baiduspider”。content部分有四个指令选项:index、noidex、follow、nofollow,指令间以“,”分离。

index指令告诉搜索引擎机器人抓取该页面

follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;

robots meta 标签的缺省值是index和follow,只有inktomi(早期出现的搜索引擎)除外,对于它,缺省值是index,nofollow。

具体写法为以下4种:

1、

2、

3、

4、

其中

可以写成:

而:

可以写成

目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于robots meta标签,目前支持的并不多,但是正在逐渐增加。Googie是完全遵守的。


文章标题:robts文件的介绍、写作语法及robotsmeat标签的写法
URL网址:http://kswjz.com/article/chcec.html
扫二维码与项目经理沟通

我们在微信上24小时期待你的声音

解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流