为什么网站已经加了robots.txt,还能在百度搜索出来?

妹纸你好白
2021-01-25
619 阅读 分享
百度站长平台

百度站长平台权威解答

此答案来自百度站长平台官方人员给出的权威答案

因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。

如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。

相关SEO术语解释:

其他站长关注的问题:

{{item.AnsTitle}}
你的答案等待审核中,仅自己可见.....

我要补充答案: