允许抓取外部 Javascript 文件

Allowing external Javascript file to be crawled

我的网站在 google 控制台

中遇到问题

我的网站 google 控制台出现以下错误

资源:

https://api.html5media.info/1.1.5/html5media.min.js 

Type : Script   

Status : Googlebot blocked by robots.txt

我的站点在 xcart 中,我的 robots.txt 包含

User-agent: Googlebot
Disallow: /*printable=Y*
Disallow: /*js=*
Disallow: /*print_cat=*
Disallow: /*mode=add_vote*

User-agent: *
Allow: *.js
Allow: *.css
Allow: *.jpg
Allow: *.gif
Allow: *.png
Disallow: /admin/
Disallow: /catalog/
Disallow: /customer/
Disallow: /files/
Disallow: /include/
....

我试过改变

User-Agent: Googlebot
Disallow: /*printable=Y*
Disallow: /*print_cat=*
Disallow: /*mode=add_vote*
Allow: .js

但是上面的代码没有运气。 任何人有解决方案?我如何允许 google 机器人使用我的 robots.txt

允许的第三方 js

如果 .js 文件位于您无法控制的第三方网站上,那么不,没有办法解除对您网站的阻止。给定的 robots.txt 文件仅控制 robots.txt 文件从中加载的 domain/subdomain 上的文件抓取。要取消阻止此文件,您需要能够更改第三方域上的 robots.txt 文件。 (我假设你不能在这里这样做)

解决此问题的最简单方法是将 js 文件复制到您自己的服务器,然后 link 复制到那里。