Google 索引子域的重复安全 http?
Google index duplicate secure http of the subdomain?
我们在单个域上有两个子域,例如
1) example.com (rails app)
2) blog.example.com (wordpress)
3) sendy.example.com (sendy mailer)
其中 (1) 是域,(2),(3) 是子域。
我们为 example.com 设置了 ssl。
现在,google 索引重复 url 就像 (https : //blog.example.com/ios, https : //sendy.example.com/ios) 相同的内容在 https://example.com/ios 中。
如果我放置 http://blog.example.com 或 sendy.example.com,它将被正确重定向。
我的 robots.txt 文件在 example.com:
# See http://www.robotstxt.org/wc/norobots.html for documentation on how to use the robots.txt file
#
# To ban all spiders from the entire site uncomment the next two lines:
# User-agent: *
# Disallow: /
Sitemap: https://www.example.com/sitemap.xml
现在,google 索引,如 https://example.com/ios、https://blog.example.com/ios 具有相同的内容。如何修复这些重复索引。?
您可以使用规范链接,除非是重定向实现问题。如果是这样,请先修复它。
我们在单个域上有两个子域,例如
1) example.com (rails app)
2) blog.example.com (wordpress)
3) sendy.example.com (sendy mailer)
其中 (1) 是域,(2),(3) 是子域。
我们为 example.com 设置了 ssl。 现在,google 索引重复 url 就像 (https : //blog.example.com/ios, https : //sendy.example.com/ios) 相同的内容在 https://example.com/ios 中。 如果我放置 http://blog.example.com 或 sendy.example.com,它将被正确重定向。
我的 robots.txt 文件在 example.com:
# See http://www.robotstxt.org/wc/norobots.html for documentation on how to use the robots.txt file
#
# To ban all spiders from the entire site uncomment the next two lines:
# User-agent: *
# Disallow: /
Sitemap: https://www.example.com/sitemap.xml
现在,google 索引,如 https://example.com/ios、https://blog.example.com/ios 具有相同的内容。如何修复这些重复索引。?
您可以使用规范链接,除非是重定向实现问题。如果是这样,请先修复它。