如果所有代码看起来都是正确的,我该如何解决 "Lighthouse was unable to download a robots.txt file"?
How can I solve "Lighthouse was unable to download a robots.txt file" if all code seems correct?
我正在制作 Next.JS 应用程序并使用 next-sitemap
插件生成 sitemap.xml 和 robots.txt 文件。一切都很好,但有时 Google Lighthouse 会给我一个错误(在屏幕截图上):
我的 robots.txt 文件在 https://webnos.online/robots.txt。
我发现了这个错误和解决方案 ,但是 运行 await fetch(new URL('/robots.txt', location.href).href)
在控制台中 returns 正确的结果(在屏幕截图上)与找到的解决方案不同:
其他审计服务没有向我显示 robots.txt 文件的任何错误。我该如何解决这个错误或忽略它?
当我搬到 Vercel 托管时,问题就解决了。在那之前我用过Netlify。
我正在制作 Next.JS 应用程序并使用 next-sitemap
插件生成 sitemap.xml 和 robots.txt 文件。一切都很好,但有时 Google Lighthouse 会给我一个错误(在屏幕截图上):
我的 robots.txt 文件在 https://webnos.online/robots.txt。
我发现了这个错误和解决方案 await fetch(new URL('/robots.txt', location.href).href)
在控制台中 returns 正确的结果(在屏幕截图上)与找到的解决方案不同:
其他审计服务没有向我显示 robots.txt 文件的任何错误。我该如何解决这个错误或忽略它?
当我搬到 Vercel 托管时,问题就解决了。在那之前我用过Netlify。