URL 阻止机器人
URL Blocking Bots
我有一个客户正在尝试通过 SSL 免费设置 SSL 证书,就像我以前做过 100 次一样。
我在 public_html
下创建了文件结构:
.well-known
> pki-validation
> <uploaded verification file>
然后我尝试下载证书并收到以下失败消息:
Warning: Your verification URL is not returning the correct contents
to our verification servers. The URL looks like it is blocking bots
and which inadvertently blocks our servers from receiving the correct
content. Contact your host, a professional developer or admin for
further help with fixing it.
我认为这是由于 robots.txt
文件造成的,查看了一下,它包含以下内容:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
所以我将其更改为暂时允许所有机器人使用:
User-agent: *
Disallow:
然后我重试了该过程,上传了新的验证文件,但我仍然收到关于 URL 阻止机器人程序的相同警告消息。有没有人以前遇到过这个问题并知道如何解决?
我还尝试通过 DNS .txt 记录和 FTP 进行验证,两者都返回相同的失败通知。
通过 GoDaddy 托管,他们使用 Linux cPanel。该网站是通过WordPress制作的。
输入 example.com/robots.txt
returns 正确的 robots.txt
文件。
感谢大家的帮助!
我在 SSL For Free 门户中解决了这个问题。在 "certificates" link 中点击更新后,我点击了 "regenerate account" link。然后通过通常的步骤进行更新并且它起作用了。
我现在已经解决了这个问题。这确实与我最初认为的 robots.txt
文件有关。它最初不起作用的原因是网站仍然缓存了旧文件,这阻止了整个网站的机器人程序。
我在 .htaccess
文件中添加了一些代码以强制重新验证缓存:
ExpiresActive On
ExpiresDefault A1
Header append Cache-Control must-revalidate
完成此操作并使用我的新 robots.txt
文件后,我能够将新的 SSL 证书安装到现在可以使用的网站上!我希望这对遇到同样问题的人有所帮助。
请记住之后删除上述代码,因为它会暂时停止您的网站缓存。
我有一个客户正在尝试通过 SSL 免费设置 SSL 证书,就像我以前做过 100 次一样。
我在 public_html
下创建了文件结构:
.well-known
>pki-validation
><uploaded verification file>
然后我尝试下载证书并收到以下失败消息:
Warning: Your verification URL is not returning the correct contents to our verification servers. The URL looks like it is blocking bots and which inadvertently blocks our servers from receiving the correct content. Contact your host, a professional developer or admin for further help with fixing it.
我认为这是由于 robots.txt
文件造成的,查看了一下,它包含以下内容:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
所以我将其更改为暂时允许所有机器人使用:
User-agent: *
Disallow:
然后我重试了该过程,上传了新的验证文件,但我仍然收到关于 URL 阻止机器人程序的相同警告消息。有没有人以前遇到过这个问题并知道如何解决?
我还尝试通过 DNS .txt 记录和 FTP 进行验证,两者都返回相同的失败通知。
通过 GoDaddy 托管,他们使用 Linux cPanel。该网站是通过WordPress制作的。
输入 example.com/robots.txt
returns 正确的 robots.txt
文件。
感谢大家的帮助!
我在 SSL For Free 门户中解决了这个问题。在 "certificates" link 中点击更新后,我点击了 "regenerate account" link。然后通过通常的步骤进行更新并且它起作用了。
我现在已经解决了这个问题。这确实与我最初认为的 robots.txt
文件有关。它最初不起作用的原因是网站仍然缓存了旧文件,这阻止了整个网站的机器人程序。
我在 .htaccess
文件中添加了一些代码以强制重新验证缓存:
ExpiresActive On
ExpiresDefault A1
Header append Cache-Control must-revalidate
完成此操作并使用我的新 robots.txt
文件后,我能够将新的 SSL 证书安装到现在可以使用的网站上!我希望这对遇到同样问题的人有所帮助。
请记住之后删除上述代码,因为它会暂时停止您的网站缓存。