来自 Docker 的 Apache Marmotta 导入程序
Apache Marmotta Importer from Docker
我使用 docker pull apache/marmotta on an AWS server. I am able to see Core Services (http://34.229.180.217:8080/marmotta/core/admin/import) 通过浏览器中的导入界面安装了带有 Docker 的 Apache Marmotta。但是,我无法通过界面导入 RDF 文件。
文件(RDF 和 TTL)在我的本地机器和服务器上。这些文件非常大(每个超过 2 GB),所以我想使用 KiWi Loader 将它们导入 Marmotta,这样我就可以 运行 SPARQL 查询它们。
我可以在 Marmotta 中调整参数以允许导入更大的文件吗?否则,是否可以通过 Docker 安装使用 KiWi Loader?任何建议都会很棒。
您可以使用本地目录导入。只需将 RDF/TTL
文件复制到 $MARMOTTA_HOME/import
。您可以在类似文件的结构中定义上下文库。例如,如果您想将数据存储在 http://34.229.180.217:8080/marmotta/foo
中,只需将文件存储在 $MARMOTTA_HOME/import/foo
中,这里您使用的是默认上下文。但是,如果您想存储在其他上下文中,请创建一个编码为 URL 的文件夹。有关 Apache Marmotta 提供的用于导入文件的选项的更多详细信息,请查看 documentation。
恕我直言,我在上传大文件时遇到了很多问题。我认为主要是因为 Apache Marmotta 在内存中的所有内容之后提交数据,它是 KiWi 的实现。我不知道,如果你可以分块上传,使用 importer.batchsize
属性 对我来说没什么用。
我使用 docker pull apache/marmotta on an AWS server. I am able to see Core Services (http://34.229.180.217:8080/marmotta/core/admin/import) 通过浏览器中的导入界面安装了带有 Docker 的 Apache Marmotta。但是,我无法通过界面导入 RDF 文件。
文件(RDF 和 TTL)在我的本地机器和服务器上。这些文件非常大(每个超过 2 GB),所以我想使用 KiWi Loader 将它们导入 Marmotta,这样我就可以 运行 SPARQL 查询它们。
我可以在 Marmotta 中调整参数以允许导入更大的文件吗?否则,是否可以通过 Docker 安装使用 KiWi Loader?任何建议都会很棒。
您可以使用本地目录导入。只需将 RDF/TTL
文件复制到 $MARMOTTA_HOME/import
。您可以在类似文件的结构中定义上下文库。例如,如果您想将数据存储在 http://34.229.180.217:8080/marmotta/foo
中,只需将文件存储在 $MARMOTTA_HOME/import/foo
中,这里您使用的是默认上下文。但是,如果您想存储在其他上下文中,请创建一个编码为 URL 的文件夹。有关 Apache Marmotta 提供的用于导入文件的选项的更多详细信息,请查看 documentation。
恕我直言,我在上传大文件时遇到了很多问题。我认为主要是因为 Apache Marmotta 在内存中的所有内容之后提交数据,它是 KiWi 的实现。我不知道,如果你可以分块上传,使用 importer.batchsize
属性 对我来说没什么用。