我有2列的数据集 - 每一列一组文档。我必须将Col A中的文档与Col B中提供的文档相匹配。这是一个监督分类问题。所以我的训练数据包含一个标签栏,指出文件是否匹配。LSTM模型辅助输入
为了解决这个问题,我已经创建的一组特性,比如F1-F25(通过比较两份文件),然后训练的这些特征的二元分类。这种方法工作得很好,但现在我想评估Deep Learning模型(特别是LSTM模型)。
我使用Python中keras
库。通过keras文档和其他教程可在网上去后,我已成功地做到以下几点:
from keras.layers import Input, Embedding, LSTM, Dense
from keras.models import Model
# Each document contains a series of 200 words
# The necessary text pre-processing steps have been completed to transform
each doc to a fixed length seq
main_input1 = Input(shape=(200,), dtype='int32', name='main_input1')
main_input2 = Input(shape=(200,), dtype='int32', name='main_input2')
# Next I add a word embedding layer (embed_matrix is separately created
for each word in my vocabulary by reading from a pre-trained embedding model)
x = Embedding(output_dim=300, input_dim=20000,
input_length=200, weights = [embed_matrix])(main_input1)
y = Embedding(output_dim=300, input_dim=20000,
input_length=200, weights = [embed_matrix])(main_input2)
# Next separately pass each layer thru a lstm layer to transform seq of
vectors into a single sequence
lstm_out_x1 = LSTM(32)(x)
lstm_out_x2 = LSTM(32)(y)
# concatenate the 2 layers and stack a dense layer on top
x = keras.layers.concatenate([lstm_out_x1, lstm_out_x2])
x = Dense(64, activation='relu')(x)
# generate intermediate output
auxiliary_output = Dense(1, activation='sigmoid', name='aux_output')(x)
# add auxiliary input - auxiliary inputs contains 25 features for each document pair
auxiliary_input = Input(shape=(25,), name='aux_input')
# merge aux output with aux input and stack dense layer on top
main_input = keras.layers.concatenate([auxiliary_output, auxiliary_input])
x = Dense(64, activation='relu')(main_input)
x = Dense(64, activation='relu')(x)
# finally add the main output layer
main_output = Dense(1, activation='sigmoid', name='main_output')(x)
model = Model(inputs=[main_input1, main_input2, auxiliary_input], outputs= main_output)
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.fit([x1, x2,aux_input], y,
epochs=3, batch_size=32)
然而,当我这个分数在训练数据上,我得到了相同的概率。所有情况下得分。这个问题似乎与辅助输入的输入方式有关(因为当我移除辅助输入时它会产生有意义的输出)。 我也尝试在网络中的不同位置插入辅助输入。但不知何故,我无法得到这个工作。
任何指针?
不知道这是有意的,但只有auxiliary_output是(1)。它真的是你期望的吗?只有一个结果合并25个辅助输入? - 当您仅训练最后部分时,辅助输出之前的模型是否意图“不可训练”? –
嗯,这是一个二元分类模型,所以最终的输出是(1,)。辅助输出应该不同吗?我只是在辅助输入中添加25个特征,因此(25,)形状 – Dataminer
您是否尝试过更多的时代? –