首页 > 优化 > 关键词  > robots.txt文件设置最新资讯  > 正文

张栩藩:简单robots.txt规则编写及应用

2011-09-26 14:20 · 稿源:永州新唯美

《张栩藩:简单robots.txt规则编写及应用》文章已经归档,站长之家不再展示相关内容,下文是站长之家的自动化写作机器人,通过算法提取的文章重点内容。这只AI还很年轻,欢迎联系我们帮它成长:

讲解:这里user-agent是针对百度蜘蛛的,而谷歌是没有蜘蛛的,谷歌的搜索引擎叫机器人,而disallow禁止了所有“/”目录下的文件,这里的斜杠是根目录(一般是wwwroot下的文件)...

讲解:这里网站主要针对百度说,我对你是开放的,而对其他所有的除百度意外的搜索引擎都对他们不开放我的目录...

讲解:这里网站说明了针对所有的搜索引擎禁止访问我的a文件里面的任何文件,以及abc文件和data文件...

讲解:这里不光禁止了该文件,同时也禁止以该文件命名的url路径对搜索引擎的索引...

现在我们有很多网站不能实现静态,很多网站都做了伪静态,但是有部分的动态路径仍被搜索引擎索引了怎么办呢?我们可以添加如下规则:...

......

本文由站长之家用户“永州新唯美”投稿,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完整的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请联系作者获取原文。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: