在实现具有多个TimeDistributed输出层的RNN中的问题

时间:2019-01-22 20:16:14

标签: python tensorflow keras

我正在尝试翻译以下前馈DNN

FUNCSTUFF()

进入具有三个LSTM层和三个输出o0,o1,o2的RNN,这三个层应该是三个密集层。

RNN输入大小为(10,70,1025 * 3)(对于前馈DNN略有变化,但相同的数据相同),而每个输出的大小为(10,70,1025)

我尝试创建三个LSTM层,并使用一个使用TimeDistributed函数的亚神经网络(此处称为子网)。

由于难以实现TimeDistributed函数,我认为通过分割长的密集层来获得三个输出层是一个好主意,如下所示:

myInt_lib1

尽管RNN训练运行顺利,但成本函数的下降速度比使用简单前馈的情况要慢得多,这使我认为我的实现尝试可能很差。有什么建议吗?

0 个答案:

没有答案