在NMT模型中,如何处理比编码器更长的令牌

时间:2019-04-21 08:58:50

标签: neural-network recurrent-neural-network seq2seq attention-model

在NMT模型(例如seq2seq或注意力模型)中,如何翻译长于标记比编码器长的句子? 我应该重新制作神经网络(输入长度​​更大)还是对编码器有误解?

0 个答案:

没有答案