媒体维基 Special:Export

mediawiki Special:Export

我刚刚设置了一个 mediawiki 服务器。我想从维基百科导出数据,但默认情况下不允许 pagelink_depth 高于 0。您似乎只能通过设置自己的 mediawiki 并调整 $wgExportMaxLinkDepth 来更改最大值 pagelink_depth。现在我已经完成了所有这些,但显然我自己的 mediawiki 没有内容。所以我想知道是否有办法将所有维基百科批量复制到我自己的服务器中。从我读过的信息来看,这似乎一次只适用于大约 100 页。如果是这种情况,通常 Special:Export 的目的绝对为 0,因为您需要在导出之前确切地知道要导入哪些页面,这完全违背了目的。任何帮助将不胜感激。

Special:Export 不适用于 完整 维基导出,尤其是不使用网络界面和数据库中有这么多页面。 Special:Export 应该被使用,如果你想导出一个包含所有内容的已知页面以将这个页面(或少量页面)导入另一个维基,例如将模板从一个 wiki 导出和导入到另一个 wiki。因此,Special:Export 特殊页面有一个有效的目的,但您尝试将它用于另一个用例,它不是为此开发的;)

如果您想导出 MediaWiki wiki 的任何 页面,您应该使用维护脚本(运行-可以通过命令行)dumpBackup.php 或维护文件夹中的任何其他备份脚本。这将确保您得到想要的东西。

对于维基百科,您无法访问这些脚本(我提到这个只是为了一般目的),但维基媒体基金会提供 database dumps 维基媒体-维基,包括维基百科。

"So I was wondering if there was a way to bulk copy all of wikipedia into my own server" 我会反对这一点,只是因为数据的庞大规模和大量开放的 links(或 "redlinks" 或 "bad links")你如果您实际上没有将它复制到 all 中,则会添加。更好的方法是遵循有关页面 NAMING 的所有 Wikipedia 约定,到标点符号.. 然后编写一个脚本,每晚检查一次是否 linked 到维基百科中已经定义的内容,然后导入 ONLY THAT PAGE 并添加a link 最上面是导入的它的确切版本。这样你只需要引入你实际引用的内容,但你的数据库可以与维基百科的集成。

如果您还必须支持多种语言(例如西班牙语或法语),这也会非常方便,因为维基百科有 link 到 'the same article in another language',因此至少可以翻译这些概念你.