Robots.txt: 不允许重复子目录但允许主目录

Robots.txt: Disallow repeated subdirectories but allow main directories

我有这些目录,有很多:

/dir100/media
/dir200/media
/dir300/media

我想禁止所有 */media 目录 我该怎么做?

您的问题几乎就到位了!

# User agent that should be disallowed, '*' is far 'all' 
User-agent: *
Disallow: /*/media

# A less restrictive rule that would also work:
# Disallow: /dir*/media

一般来说,搜索引擎确实希望查看可能从您的页面引用的所有资源,如果这些资源不允许抓取并且对于通过呈现了解页面至关重要,那么有机会 Google 并且其他搜索引擎将很难理解这些页面。在设置禁止指令时请记住这一点。