有没有一种方法可以使用 load_word2vec_format 更快地加载 wiki-fasttext 模型
Is there a way to load the wiki-fasttext model faster with load_word2vec_format
使用 gensim 库加载 wiki-fasttext 模型需要 6 分钟。
我知道缓存模型的方法,但我正在寻找加速初始模型加载的方法。具体api如下:
en_model = KeyedVectors.load_word2vec_format(os.path.join(root_dir, model_file))
诚然,wiki-fasttext 是一个非常大的模型,但是我已经加载了多种语言的相同模型。
您可以尝试使用 limit=vector_num
参数从文件中加载 vector_num
个词向量。您不会加载所有矢量,但可以加快加载过程。
使用 gensim 库加载 wiki-fasttext 模型需要 6 分钟。
我知道缓存模型的方法,但我正在寻找加速初始模型加载的方法。具体api如下:
en_model = KeyedVectors.load_word2vec_format(os.path.join(root_dir, model_file))
诚然,wiki-fasttext 是一个非常大的模型,但是我已经加载了多种语言的相同模型。
您可以尝试使用 limit=vector_num
参数从文件中加载 vector_num
个词向量。您不会加载所有矢量,但可以加快加载过程。