在 GitHub 页中使用 robots.txt 有什么意义?

What is the sense of using robots.txt in GitHub pages?

我知道文件 robots.txt 用于阻止第三方索引内容站点的网络爬虫。

但是,如果这个文件的目标是划定网站的隐私区域或保护隐私区域,这是试图用robots.txt隐藏内容的意义,如果所有内容都可以看到在 GitHub 存储库中?

我的问题使用自定义域扩展示例。

是否有在 GitHub 页内使用文件 robots.txt 的动机?是还是不是?为什么?

选项 1
为了使内容有效隐藏,则需要为网站付费以获得私有存储库。

robots.txt的本意并不是要划定隐私区域,因为机器人根本进不去。相反,它是为了防止您有一些垃圾或任何您不想被搜索引擎索引的杂项。

举个例子。我编写 Flash 游戏是为了娱乐,我使用 GitHub 页面让游戏检查更新。我在我的 GHP 上托管了 this file,其所有内容都是

10579
2.2.3
https://github.com/iBug/SpaceRider/tree/master/SpaceRider%202

包含三个信息:新版本内部号、新版本显示名、下载link。因此它被爬虫收录时肯定是没用的,所以当我有一个robots.txt这种东西时我会避免被收录。