模型每次都会返回错误的预测以进行语言翻译

时间:2019-07-16 06:35:14

标签: machine-learning keras nlp language-translation

我已经使用LSTM设计语言翻译模型。但是,即使在我的数据集中输入了10000个条目之后,该模型也无法正确转换。

我已经将每个单词都大写了,并且没有删除任何停用词。训练数据按原样使用。

model = Sequential()
model.add(Embedding(src_vocab, n_units, input_length=src_timesteps,input_shape=trainX.shape,mask_zero=True))
model.add(LSTM(n_units))
model.add(RepeatVector(tar_timesteps))
model.add(LSTM(n_units, return_sequences=True))
model.add(TimeDistributed(Dense(tar_vocab, activation='softmax')))

理想情况下,如果不是实际情况,这应该已经显示了一些翻译,但是在大多数情况下,它不会为任何带标记的单词返回最大概率,并且最后得到的字符串为空。

0 个答案:

没有答案
相关问题