谷歌通过Search Console 向网站管理员发送电子邮件,告诉他们从其 robots.txt 文件中删除 noindex 语句。
电子邮件内容如下:
“Google 已确定您网站的 robots.txt 文件包含不受支持的规则“noindex”。此规则从未得到 Google 的批准,得到官方支持并将于 2019 年 9 月 1 日停止工作。请访问我们的帮助中心,了解如何阻止 Google 索引中的页面。”
这些通知是在 Google 正式删除对 noindex 规则的支持后发布的在几周之内。
此时,Googlebot 仍然尊重 noindex 指令,并将继续这样做到 9 月 1 日。然后,网站所有者需要使用替代方案。
从技术上讲,如电子邮件中所述,Google 从来没有义务首先支持 noindex 指令。当谷歌开始被网站所有者广泛使用时,这是一个非正式的规则。
robots.txt 缺乏一套标准化的规则本身就是另一个问题——Google 正在坚定地努力解决这个问题。
在确定标准规则列表之前,最好不要仅仅依赖非官方规则。
以下是防止页面被编入索引的一些其他选项:
- 直接在页面的 HTML 代码中使用 noindex 元标记
- 404 和 410 HTTP 状态代码
- 密码保护
- 在 robots.txt 中禁用
- Search Console 删除 URL 工具