首页 > 外闻 > 关键词  > 谷歌最新资讯  > 正文

谷歌开源robots.txt 欲引领搜索引擎爬虫的行业标准

2019-07-02 13:56 · 稿源: cnbeta

外媒 VentureBeat 报道称,谷歌希望将发展数十年的 robots.txt 解析器开源,以推动 REP 成为搜索引擎爬虫的行业标准。机器人排除协议(REP)是荷兰软件工程师 Martijn Koster 于 1994 年提出的一个标准,几乎已经成为了网站不希望被搜索引擎收录的注释的事实标准。(截图 via Venture

......

本文由站长之家合作伙伴自媒体作者“cnbeta”授权发布于站长之家平台,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

举报

  • 相关推荐

今日大家都在搜的词: