Robots.txt:不允许文件夹名称,无论它可能出现在哪个深度

Robots.txt: disallow a folder's name, regardless at which depth it may show up

所以我必须禁止搜索引擎索引我们的 REST 网络服务响应(这是一个 Sitecore 网站);它们在 URL 中都有相同的名称,但在服务器层次结构中显示在不同级别,我想知道我是否可以在我们的机器人文件中写入一个 "catch all" 条目,或者我是否注定要写一份详尽的清单。

我可以添加类似的内容吗

Disallow: */ajax/*

捕获所有名为 "ajax" 的文件夹,无论它们出现在哪里?

您应该可以只使用 Disallow: /*ajax。类似的问题在这里: How to disallow service api and multilingual urls in robots.txt

robots.txt 规范没有说明通配符,但 Google (Google Robots.txt Specifications) 和 Bing 允许在 robots.txt 文件中使用通配符。

Disallow: */ajax/*

无论 /ajax/.

的嵌套级别如何,您的 disallow 对所有 /ajax/ url 都有效