如何将大 json 文件导入到 mongodb?
How to import large json file to mongodb?
我正在尝试导入一个大小为 170MB 的 json 文件。我正在使用 mongoimport --db test --collection nhentai --file ~/py/nhentai.json --jsonArray
。它恰好导入了 23000 个文档并给出了以下消息。
2020-12-06T08:57:22.763+0000 connected to: mongodb://localhost/
2020-12-06T08:57:23.515+0000 Failed: cannot decode 32-bit integer into a slice
2020-12-06T08:57:23.517+0000 23000 document(s) imported successfully. 0 document(s) failed to import.
第二行有错误。我不明白这个错误,我在谷歌搜索时找不到任何东西。我尝试从 json 数组中拆分前 23000 个对象并将其放在另一个文件中,并且没有任何错误。如何一次性导入整个文件?
对于那些正在寻找这个问题的答案的人。
我研究了很多方法,但找不到任何答案。然后我尝试用 Mongodb Compass 做同样的事情,它工作得很好。 Mongodb compass 是一个用于查看数据库的 neet 实用程序,它还有许多其他功能。
我正在尝试导入一个大小为 170MB 的 json 文件。我正在使用 mongoimport --db test --collection nhentai --file ~/py/nhentai.json --jsonArray
。它恰好导入了 23000 个文档并给出了以下消息。
2020-12-06T08:57:22.763+0000 connected to: mongodb://localhost/
2020-12-06T08:57:23.515+0000 Failed: cannot decode 32-bit integer into a slice
2020-12-06T08:57:23.517+0000 23000 document(s) imported successfully. 0 document(s) failed to import.
第二行有错误。我不明白这个错误,我在谷歌搜索时找不到任何东西。我尝试从 json 数组中拆分前 23000 个对象并将其放在另一个文件中,并且没有任何错误。如何一次性导入整个文件?
对于那些正在寻找这个问题的答案的人。 我研究了很多方法,但找不到任何答案。然后我尝试用 Mongodb Compass 做同样的事情,它工作得很好。 Mongodb compass 是一个用于查看数据库的 neet 实用程序,它还有许多其他功能。