谷歌加里Illyes 更新了他关于抓取预算的原始文章并阐明了不允许的 URL。

该文件现在包含以下信息:

“问:我通过 robots.txt 禁止的 URL 会以任何方式影响我的抓取预算吗?

" p>

回答:不,不允许的 URL 不会影响抓取预算。"

问题涉及“User-agent: * Disallow: /”协议。

它可以用于阻止整个网站被抓取,也可以用于阻止特定 URL 被抓取。

根据 Illyes 的更新,阻止特定 URL 将不会影响网站其余部分的抓取预算。

该页面不会被更频繁地抓取,因为不允许抓取网站上的其他页面。

没有爬取预算时禁止 URL 的缺点。

更新信息出现在本文底部,这是 2017 年的网站管理员中心博客文章。

Illyes 在 Twitter 上表示有计划将博客文章变成官方帮助中心文章。