你真的懂robots文件吗?

前些日子针对企业网站内部优化和大家分享了下,相信大家也都比较了解站内优化所包含的几大步骤。其中robots文件的设置相信很多的seoer都知道起着举足轻重的作用。今天我菜鸟seo郝晓奇就来为大家相信的介绍介绍robots文件,让您真的更懂它。       搜索引擎都有自己的“搜索机器人”(Robots),并通过这些Robots在网络上沿着网页上的链接不断抓取资料建立自己的数据库。但是有时候对于网站管理者和内容提供者来说,有时候会有一些站点内容,不希望被Robots抓取公开。为了解决这个问题,robots文件就应运而生了。
        robots.txt是一个纯文本文件,通过在这个文件中声明该网站中不想被robots访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。当一个搜索机器人访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果找到,搜索机器人就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那么搜索机器人就沿着链接抓取。robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
       相信很多seoer都知道如何书写robots文件,那么我就针对像我一样菜鸟级的seoer们在啰嗦啰嗦robots文件的格式问题。
        robots文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:
        1、 User-agent:
       该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中, "User-agent: *"这样的记录只能有一条。
        2、 Disallow:
       该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow 开头的URL均不会被robot访问到。例如"Disallow: /help"对/help.html 和/help/index.html都不允许搜索引擎访问,而"Disallow: /help/"则允许robot访问/help.html,而不能访问/help/index.html。
       任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要有一条Disallow记录。如果 "/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。
       下面我在列出一些robots文件的基本用法,希望对我们菜鸟seoer了解robots文件有所帮助。
       A. 禁止所有搜索引擎访问网站的任何部分:
        User-agent: *
        Disallow: /
       B. 允许所有的robot访问
       User-agent: *
       Disallow:
       或者也可以建一个空文件 "/robots.txt" file
       C. 禁止某个搜索引擎的访问(例如BaiduSpider)
       User-agent: BaiduSpider
       Disallow: /
       D. 只允许某个搜索引擎的访问(例如BaiduSpider)
       User-agent: BaiduSpider
       Disallow:
       以上就是我菜鸟seo郝晓奇(www.bushaoyou.com )所接触到的robots文件,这里为广大的菜鸟同胞们分享下,希望对你们有所帮助。

作者: gatw2011   发布时间: 2011-10-20

哎.....自己先给自己打气先

作者: gatw2011   发布时间: 2011-10-20