设为首页
加入收藏
帮助中心
首页 | 红盾通告 | 信息中心 | ASP技术 | 数据库 | 网页设计 | 网管专栏 | OICQ攻略 | 墨客频道 | 网站运营 |
当前位置:首页 >> 网站运营 >> 网站推广 >> 正文
最新信息
·使用robots.txt的注意事项
·面向搜索引擎的内容管理系…
·总结几个产生上万流量的方…
·robots.txt和Robots META标…
·使用robots.txt控制搜索引…
·使用301 redirect避免Cano…
·为什么要使用robots.txt
·禁止搜索引擎收录的方法
·网易竞价联盟3.4日强力推出
·如何扩大网站的影响力
资料搜索
热点信息
·如何扩大网站的影响力
·为什么要使用robots.txt
·网易竞价联盟3.4日强力推出
·禁止搜索引擎收录的方法
·使用robots.txt的注意事项
·总结几个产生上万流量的方…
·面向搜索引擎的内容管理系…
·网站策划五大趋势
·使用301 redirect避免Cano…
·robots.txt和Robots META标…
推荐信息


Google
 
禁止搜索引擎收录的方法
〖来源:baidu.com | 编辑:Cloudy | 浏览:人次〗
  • 什么是robots.txt文件?
    搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。
    您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。
     
  • robots.txt文件放在哪里?
    robots.txt文件应该放在网站根目录下。举例来说,当robots访问一个网站(比如http://www.abc.com)时,首先会检查该网站中是否存在http://www.abc.com/robots.txt这个文件,如果机器人找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。
    网站 URL 相应的 robots.txt的 URL
    http://www.w3.org/ http://www.w3.org/robots.txt
    http://www.w3.org:80/ http://www.w3.org:80/robots.txt
    http://www.w3.org:1234/ http://www.w3.org:1234/robots.txt
    http://w3.org/ http://w3.org/robots.txt

     
  • robots.txt文件的格式
    "robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
    "<field>:<optionalspace><value><optionalspace>"。

    在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:

    User-agent:
      该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。

    Disallow:
      该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如"Disallow:/help"对/help.html 和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。

  • robots.txt文件用法举例
    例1. 禁止所有搜索引擎访问网站的任何部分
    下载该robots.txt文件
    User-agent: *
    Disallow: /
    例2. 允许所有的robot访问 (或者也可以建一个空文件 "/robots.txt" file) User-agent: *
    Disallow:
    例3. 禁止某个搜索引擎的访问 User-agent: BadBot
    Disallow: /
    例4. 允许某个搜索引擎的访问 User-agent: baiduspider
    Disallow:


    User-agent: *
    Disallow: /
    例5.一个简单例子
      在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。
      需要注意的是对每一个目录必须分开声明,而不要写成 "Disallow: /cgi-bin/ /tmp/"。
      User-agent:后的*具有特殊的含义,代表"any robot",所以在该文件中不能有"Disallow: /tmp/*" or "Disallow:*.gif"这样的记录出现.
    User-agent: *
    Disallow: /cgi-bin/
    Disallow: /tmp/
    Disallow: /~joe/

  • 录入时间:2006-10-26 11:24:48 [打印本页] [关闭窗口] [返回顶部]
    特别声明: 本站除部分特别声明禁止转载的专稿外的其他文章可以自由转载,但请务必注明出处和原始作者。文章版权归文章原始作者所有。对于被本站转载文章的个人和网站,我们表示深深的谢意。如果本站转载的文章有版权问题请联系编辑人员,我们尽快予以更正。

    Copyright © 2006-2014 0733168.Com Inc All Rights Reserved
    关于我们 | 广告合作 | 联系我们 | 法律声明 | 友情链接 | 意见反馈
    本站所收录信息、社区话题、及本站所做之广告均属其个人行为,与本站立场无关
    湘ICP备06008436号