Robots.txt是你穿告诉搜索机器人哪些页面你会喜欢他们不能够访问您的网站的文本(而不是html)文件。Robots.txt是不是强制性的搜索引擎,但是搜索引擎一般遵守他们都问什么不该做。务必要澄清robots.txt不从防止搜索引擎抓取您的网站(即它是不一的防火墙或密码保护的一种)的一种方法,您放置一个robots.txt文件的事实是有点像把一条注释"请不要输入"一个解锁的门——上如不能防止小偷进来,但好人,将不打开门,然后输入。也就是为什么我们说是否真的有森sitive数据,是太依赖robots.txt,以防止被索引,并显示在搜索结果的不完善。
robots.txt的位置是非常重要的。它必须是主目录中,因为否则用户代理(搜索引擎)不会能够找到它——他们不中搜索名为robots.txt的文件的整个站点。相反,他们首先主目录(如http://mydomain.com/robots.txt)中查找和他们那里找不到它,如果他们只是假定此站点没有robots.txt文件,因此他们索引他们发现路上的一切。因此,如果你不穿robots.txt中适当的位置,不要惊讶搜索引擎索引了您的整个站点。
概念与结构的robots.txt已发展了十多年前,如果您有兴趣进一步了解它,请访问http://www.robotstxt.org/或因为这篇文章中,我们会处理只与一个robots.txt文件的最重要的环节,您可以转到标准的机器人排除直。下一步我们会与结构继续robots.txt文件。
Robots.txtFile的结构
一个robots.txt的结构是相当简单(和几乎不能灵活)–它是用户代理和不允许的文件和目录的一个无穷列表。基本上,语法如下所示:
用户代理:
不允许:
"用户代理"是搜索引擎的抓取工具和不允许:列出的文件和要从索引中排除的目录。在"用户代理:"和"不允许:"条目,您可以包含注释行–只是在行的开头放置,#号:
#所有用户代理不都允许以查看该/temp目录。
用户代理:*
不允许:/temp/
Robots.txtFile的陷阱
当你开始做复杂的文件–即您决定允许不同的用户代理访问不同的目录–可以开始问题,如果你没有支付费用的robots.txt文件陷阱,特别重视。常见的错误包括打字错误和有冲突的指令。拼写错误的用户-代理后用户代理和Disallow,,缺少冒号的目录包括拼写错误等。打字错误可以很难找到,但在某些情况下验证工具的帮助。
更严重的问题是有逻辑错误。例如:
用户代理:*
不允许:/temp/
用户代理:Googlebot
不允许:/images/
不允许:/temp/
不允许:/cgi-bin/
上面的示例中是一个允许访问除在/temp站点上的所有内容的所有代理的robots.txt从目录。达在这里很好,但更高版本在那里是另一个记录,为Googlebot指定限制性更强的条款。Googlebot开始读取robots.txt,它会看到所有文件夹除外/temp/并都允许的(包括Googlebot本身)的所有用户代理。这是足够的了解,它不会读到文件和一切除了/temp/-包括/images/和/cgi-bin,会索引/,你认为你已经告诉它不要Googlebot。你看到一个robots.txt文件结构的简单但仍严重的错误可以方便地进行。
用于生成和验证Robots.txt文件工具
记住,你可以有一个robots.txt文件的简单语法,您可以始终阅读这一切都是可以的但它是更易于使用验证程序类似这样:http://tool.motoricerca.info/robots-checker.phtml。这些工具报告有关常见的错误,如缺少斜杠或冒号,检测不到的如该会危及你的努力。为例如果您键入:
user-agent:*
不允许:/temp/
这是错误的因为有"用户"和"代理"之间没有斜杠和语法不正确。
在这种情况下当您有一个复杂的robots.txt文件–即你给不同的用户代理的不同指令或您有一长串的目录和子目录中排除,编写文件手动可以一个真正的痛苦。但不用担心,——有的工具,将为您生成该文件。什么是更多有允许选择哪些文件,并点的可视化工具,是要排除的文件夹。即使你不喜欢为robots.txt代买一个图形化的工具,但在在线工具为您提供帮助。为例服务器端机器人发电机提供的用户代理的下拉列表,您可以列出文件的文本框,您不希望建立索引。坦白的说,它不好帮了除非您想要设置特定的规则,为不同的搜索引擎,因为在任何情况下,您键入的目录列表,但不只是什么。
本文由网站建设公司易捷网络发布,转载请注明文章出处!