如何序列化 NLP 分类 PyTorch 模型

How do I serialize an NLP classification PyTorch model

我正在尝试在 PyTorch android 演示应用程序 Demo App Git 中使用新的 NLP 模型,但是我正在努力序列化该模型,以便它可以与 Android 一起使用。

PyTorch给出的一个Resnet模型的演示如下:

model = torchvision.models.resnet18(pretrained=True)
model.eval()
example = torch.rand(1, 3, 224, 224)
traced_script_module = torch.jit.trace(model, example)
traced_script_module.save("app/src/main/assets/model.pt")

但是我不确定我的 NLP 模型的 'example' 输入使用什么。

我在 fastai 教程中使用的模型和 python 在此处 link 编辑:model

这里是 Python 用于创建我的模型(使用 Fastai 库)。它与上面的模型 link 相同,但采用简化形式。

from fastai.text import *
path = untar_data('http://files.fast.ai/data/examples/imdb_sample')
path.ls()
#: [PosixPath('/storage/imdb_sample/texts.csv')]
data_lm = TextDataBunch.from_csv(path, 'texts.csv')
data = (TextList.from_csv(path, 'texts.csv', cols='text')
                .split_from_df(col=2)
                .label_from_df(cols=0)
                .databunch())
bs=48
path = untar_data('https://s3.amazonaws.com/fast-ai-nlp/imdb')
data_lm = (TextList.from_folder(path)
            .filter_by_folder(include=['train', 'test', 'unsup']) 
            .split_by_rand_pct(0.1)
            .label_for_lm()           
            .databunch(bs=bs))
learn = language_model_learner(data_lm, AWD_LSTM, drop_mult=0.3)
learn.fit_one_cycle(1, 1e-2, moms=(0.8,0.7))
learn.unfreeze()
learn.fit_one_cycle(10, 1e-3, moms=(0.8,0.7))
learn.save_encoder('fine_tuned_enc')
path = untar_data('https://s3.amazonaws.com/fast-ai-nlp/imdb')
data_clas = (TextList.from_folder(path, vocab=data_lm.vocab)
             .split_by_folder(valid='test')
             .label_from_folder(classes=['neg', 'pos'])
             .databunch(bs=bs))
learn = text_classifier_learner(data_clas, AWD_LSTM, drop_mult=0.5)
learn.load_encoder('fine_tuned_enc')
learn.fit_one_cycle(1, 2e-2, moms=(0.8,0.7))
learn.freeze_to(-2)
learn.fit_one_cycle(1, slice(1e-2/(2.6**4),1e-2), moms=(0.8,0.7))
learn.freeze_to(-3)
learn.fit_one_cycle(1, slice(5e-3/(2.6**4),5e-3), moms=(0.8,0.7))
learn.unfreeze()
learn.fit_one_cycle(2, slice(1e-3/(2.6**4),1e-3), moms=(0.8,0.7))

一段时间后我弄清楚了如何做到这一点。问题是无论我使用何种形状的输入,Fastai 模型都无法正确追踪。

最后,我使用了另一种文本分类模型并使它起作用。我写了一篇关于我是如何做到的教程,以防它能帮助到其他人。

NLP PyTorch Tracing Tutorial

首先打开一个新的 Jupyter Python 笔记本,使用您首选的云计算机提供商(我使用 Paperspace)。

接下来,复制并运行 PyTorch 文本分类教程中的代码。但是替换行…

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

与...

device = torch.device("cpu")

注意:当设备设置为 CUDA 时会导致跟踪问题,因此我将其强制设置为 CPU。 (这会减慢训练速度,但移动设备上的推理将 运行 的速度与 cpu 相同)

最后,运行 下面的代码可以正确跟踪模型,使其成为 Android 上的 运行:

data = DataLoader(test_dataset, batch_size=1, collate_fn=generate_batch)
for text, offsets, cls in data:
        text, offsets, cls = text.to(device), offsets.to(device), cls.to(device)
example = text, offsets
traced_script_module = torch.jit.trace(model, example)
traced_script_module.save("model.pt")

此外,如果您想在 Android 进行预测时使用词汇列表的 CSV 副本,运行 之后的以下代码:

import pandas as pd
vocab = train_dataset.get_vocab()
df = pd.DataFrame.from_dict(vocab.stoi, orient='index', columns=['token'])
df[:30]
df.to_csv('out.csv')

使用 PyTorch API。

,此模型应该可以在 Android 上正常工作