为什么 Chrome 请求 robots.txt?
Why does Chrome request a robots.txt?
我在我的日志中注意到 Chrome 请求 robots.txt
以及我期望的所有内容。
[...]
2017-09-17 15:22:35 - (sanic)[INFO]: Goin' Fast @ http://0.0.0.0:8080
2017-09-17 15:22:35 - (sanic)[INFO]: Starting worker [26704]
2017-09-17 15:22:39 - (network)[INFO][127.0.0.1:36312]: GET http://localhost:8080/ 200 148
2017-09-17 15:22:39 - (sanic)[ERROR]: Traceback (most recent call last):
File "/usr/local/lib/python3.5/dist-packages/sanic/app.py", line 493, in handle_request
handler, args, kwargs, uri = self.router.get(request)
File "/usr/local/lib/python3.5/dist-packages/sanic/router.py", line 307, in get
return self._get(request.path, request.method, '')
File "/usr/local/lib/python3.5/dist-packages/sanic/router.py", line 356, in _get
raise NotFound('Requested URL {} not found'.format(url))
sanic.exceptions.NotFound: Requested URL /robots.txt not found
2017-09-17 15:22:39 - (network)[INFO][127.0.0.1:36316]: GET http://localhost:8080/robots.txt 404 42
[...]
我是 运行 Chromium:
60.0.3112.113 (Developer Build) Built on Ubuntu, running on Ubuntu 16.04 (64-bit)
为什么会这样?
有人可以详细说明吗?
对于 chrome,有一个插件 (SeeRobots) 可以检查 robots.txt 是否为搜索引擎等定义了规则 - 也许您已经安装了这个插件?
https://chrome.google.com/webstore/detail/seerobots/hnljoiodjfgpnddiekagpbblnjedcnfp?hl=de
可能不是您的网站在请求 robots.txt
文件,而是 Chrome 扩展之一(如您提到的 Wappalizer)。这可以解释为什么它只发生在 Chrome.
要确定您可以检查 Chrome 的 DevTools 的“网络”选项卡以查看发出请求的时间点,以及它是否来自您的脚本之一。
我在我的日志中注意到 Chrome 请求 robots.txt
以及我期望的所有内容。
[...]
2017-09-17 15:22:35 - (sanic)[INFO]: Goin' Fast @ http://0.0.0.0:8080
2017-09-17 15:22:35 - (sanic)[INFO]: Starting worker [26704]
2017-09-17 15:22:39 - (network)[INFO][127.0.0.1:36312]: GET http://localhost:8080/ 200 148
2017-09-17 15:22:39 - (sanic)[ERROR]: Traceback (most recent call last):
File "/usr/local/lib/python3.5/dist-packages/sanic/app.py", line 493, in handle_request
handler, args, kwargs, uri = self.router.get(request)
File "/usr/local/lib/python3.5/dist-packages/sanic/router.py", line 307, in get
return self._get(request.path, request.method, '')
File "/usr/local/lib/python3.5/dist-packages/sanic/router.py", line 356, in _get
raise NotFound('Requested URL {} not found'.format(url))
sanic.exceptions.NotFound: Requested URL /robots.txt not found
2017-09-17 15:22:39 - (network)[INFO][127.0.0.1:36316]: GET http://localhost:8080/robots.txt 404 42
[...]
我是 运行 Chromium:
60.0.3112.113 (Developer Build) Built on Ubuntu, running on Ubuntu 16.04 (64-bit)
为什么会这样? 有人可以详细说明吗?
对于 chrome,有一个插件 (SeeRobots) 可以检查 robots.txt 是否为搜索引擎等定义了规则 - 也许您已经安装了这个插件?
https://chrome.google.com/webstore/detail/seerobots/hnljoiodjfgpnddiekagpbblnjedcnfp?hl=de
可能不是您的网站在请求 robots.txt
文件,而是 Chrome 扩展之一(如您提到的 Wappalizer)。这可以解释为什么它只发生在 Chrome.
要确定您可以检查 Chrome 的 DevTools 的“网络”选项卡以查看发出请求的时间点,以及它是否来自您的脚本之一。