Tensorflow 2.0 将 nlp 的预处理 tonkezier 保存到 tensorflow 服务器中
Tensorflow 2.0 save preprocessing tonkezier for nlp into tensorflow server
我训练了一个tensforflow 2.0 keras模型来做一些自然语言处理。
我所做的基本上是获取不同新闻的标题并预测它们属于什么类别。为了做到这一点,我必须标记句子,然后添加 0 来填充数组,使其具有与我定义的相同的长度:
from tensorflow.keras.preprocessing.text import Tokenizer
from tensorflow.keras.preprocessing.sequence import pad_sequences
max_words = 1500
tokenizer = Tokenizer(num_words=max_words )
tokenizer.fit_on_texts(x.values)
X = tokenizer.texts_to_sequences(x.values)
X = pad_sequences(X, maxlen = 32)
from tensorflow.keras import Sequential
from tensorflow.keras.layers import Dense, Embedding, LSTM, GRU,InputLayer
numero_clases = 5
modelo_sentimiento = Sequential()
modelo_sentimiento.add(InputLayer(input_tensor=tokenizer.texts_to_sequences, input_shape=(None, 32)))
modelo_sentimiento.add(Embedding(max_palabras, 128, input_length=X.shape[1]))
modelo_sentimiento.add(LSTM(256, dropout=0.2, recurrent_dropout=0.2, return_sequences=True))
modelo_sentimiento.add(LSTM(256, dropout=0.2, recurrent_dropout=0.2))
modelo_sentimiento.add(Dense(numero_clases, activation='softmax'))
modelo_sentimiento.compile(loss = 'categorical_crossentropy', optimizer='adam',
metrics=['acc',f1_m,precision_m, recall_m])
print(modelo_sentimiento.summary())
现在,一旦训练完成,我想将其部署在 tensorflow 服务中,但我不知道如何将此预处理(标记器)保存到服务器中,例如制作 scikit-learn 管道,这是可能的在这里做?或者我必须保存标记器并自己进行预处理,然后调用训练有素的模型进行预测?
不幸的是,您将无法轻松地使用 Keras 模型(至少我不知道)做一些像 sklearn
管道一样优雅的事情。当然,您可以创建自己的 Transformer 来实现您需要的预处理。但鉴于我尝试将自定义对象合并到 sklearn 管道中的经验,我认为不值得付出努力。
您可以使用
保存分词器和元数据
with open('tokenizer_data.pkl', 'wb') as handle:
pickle.dump(
{'tokenizer': tokenizer, 'num_words':num_words, 'maxlen':pad_len}, handle)
想用的时候再加载,
with open("tokenizer_data.pkl", 'rb') as f:
data = pickle.load(f)
tokenizer = data['tokenizer']
num_words = data['num_words']
maxlen = data['maxlen']
我训练了一个tensforflow 2.0 keras模型来做一些自然语言处理。
我所做的基本上是获取不同新闻的标题并预测它们属于什么类别。为了做到这一点,我必须标记句子,然后添加 0 来填充数组,使其具有与我定义的相同的长度:
from tensorflow.keras.preprocessing.text import Tokenizer
from tensorflow.keras.preprocessing.sequence import pad_sequences
max_words = 1500
tokenizer = Tokenizer(num_words=max_words )
tokenizer.fit_on_texts(x.values)
X = tokenizer.texts_to_sequences(x.values)
X = pad_sequences(X, maxlen = 32)
from tensorflow.keras import Sequential
from tensorflow.keras.layers import Dense, Embedding, LSTM, GRU,InputLayer
numero_clases = 5
modelo_sentimiento = Sequential()
modelo_sentimiento.add(InputLayer(input_tensor=tokenizer.texts_to_sequences, input_shape=(None, 32)))
modelo_sentimiento.add(Embedding(max_palabras, 128, input_length=X.shape[1]))
modelo_sentimiento.add(LSTM(256, dropout=0.2, recurrent_dropout=0.2, return_sequences=True))
modelo_sentimiento.add(LSTM(256, dropout=0.2, recurrent_dropout=0.2))
modelo_sentimiento.add(Dense(numero_clases, activation='softmax'))
modelo_sentimiento.compile(loss = 'categorical_crossentropy', optimizer='adam',
metrics=['acc',f1_m,precision_m, recall_m])
print(modelo_sentimiento.summary())
现在,一旦训练完成,我想将其部署在 tensorflow 服务中,但我不知道如何将此预处理(标记器)保存到服务器中,例如制作 scikit-learn 管道,这是可能的在这里做?或者我必须保存标记器并自己进行预处理,然后调用训练有素的模型进行预测?
不幸的是,您将无法轻松地使用 Keras 模型(至少我不知道)做一些像 sklearn
管道一样优雅的事情。当然,您可以创建自己的 Transformer 来实现您需要的预处理。但鉴于我尝试将自定义对象合并到 sklearn 管道中的经验,我认为不值得付出努力。
您可以使用
保存分词器和元数据with open('tokenizer_data.pkl', 'wb') as handle:
pickle.dump(
{'tokenizer': tokenizer, 'num_words':num_words, 'maxlen':pad_len}, handle)
想用的时候再加载,
with open("tokenizer_data.pkl", 'rb') as f:
data = pickle.load(f)
tokenizer = data['tokenizer']
num_words = data['num_words']
maxlen = data['maxlen']