如何使用 robots.txt 阻止用于 URL 缩短服务的子域?

How to block subdomain used for URL shortening service with robots.txt?

假设我的域名是 example.com。在 www.example.com,我设置了我的主要网站(使用 Blogger 设置)并使用 go.example.com 进行 URL 缩短(使用 GoDaddy 缩短服务设置)。现在,我想阻止所有 go.example.com URL,这样它们就无法被索引。

如果我在主博客中将 rel="noindex,nofollow" 用于 go.example.com URL,那么这会影响我的博客搜索引擎优化吗?

go.example.com 上使用此 robots.txt,您不允许符合要求的机器人 抓取 来自该主机的任何 URL:

# https://go.example.com/
User-agent: *
Disallow: /

如果您对抓取没问题,但又想阻止索引 (you can’t have both),则必须使用noindex(在 meta-robots 元素中或在 HTTP header X-Robots-Tag 中)。请注意,您不能在 rel 属性中使用 noindex 作为 link 类型。

也就是说,如果您总是从 go.example.com 重定向(例如,使用 301)到规范的 URL(在另一台主机上),搜索引擎机器人没有理由将您的文档编入索引 go.example.com,因为您不提供任何内容,只提供重定向。