分词器和尼采

时间:2019-05-11 17:33:55

标签: tensorflow keras

我正在玩tf和文本生成任务。我能够成功地掌握古典尼采的例子。现在,我正在尝试使用Tokenizer。一切看起来不错,我能够开始进行拟合过程,甚至收敛了,但是最终得到了以下结果:

Epoch 1/60
200256/200281 [============================>.] - ETA: 0s - loss: 2.1613 - acc: 0.3707
Input: a
Output:
yyyyyyyyyyyyyyyyyyyyyyyyyyyyyy

请看我的笔记本。我已经为这个问题奋斗了几天。预先感谢

https://colab.research.google.com/drive/1uUZ-hZAnJBU8o841K6T51gnKfEbCB3JX

1 个答案:

答案 0 :(得分:0)

好的,我发现了问题。似乎是在predict函数中。

seq = token.texts_to_sequences(text)

需要更改为

seq = token.texts_to_sequences([text])

由于text_to_sequence期望将数组作为参数