如果所有代码看起来都是正确的,我该如何解决 "Lighthouse was unable to download a robots.txt file"?

How can I solve "Lighthouse was unable to download a robots.txt file" if all code seems correct?

我正在制作 Next.JS 应用程序并使用 next-sitemap 插件生成 sitemap.xml 和 robots.txt 文件。一切都很好,但有时 Google Lighthouse 会给我一个错误(在屏幕截图上):

我的 robots.txt 文件在 https://webnos.online/robots.txt

我发现了这个错误和解决方案 ,但是 运行 await fetch(new URL('/robots.txt', location.href).href) 在控制台中 returns 正确的结果(在屏幕截图上)与找到的解决方案不同:

其他审计服务没有向我显示 robots.txt 文件的任何错误。我该如何解决这个错误或忽略它?

当我搬到 Vercel 托管时,问题就解决了。在那之前我用过Netlify。