在tensorflow中丢失LSTM重复权重

时间:2017-09-15 15:07:46

标签: python tensorflow lstm

Tensorflow的DropoutWrapper允许将dropout应用于单元的输入,输出或状态。然而,我没有看到对细胞的复发重量做同样事情的选择(原始LSTM制剂中使用的8种不同基质中的4种)。我只想在实现自己的Wrapper之前检查是否是这种情况。

编辑:

显然此功能已在较新版本中添加(我的原始评论引用至v1.4):https://github.com/tensorflow/tensorflow/issues/13103

1 个答案:

答案 0 :(得分:0)

这是因为原始LSTM模型仅在输入和输出层上应用了丢失(仅限于非复发层)。本文被认为是一本教科书"它描述了具有退出的LSTM:https://arxiv.org/pdf/1409.2329.pdf

最近有些人尝试在复发层中应用辍学。如果你想看一下实现及其背后的数学,那么在回归神经网络中搜索"一个理论上基于接地的丢失应用"由Yarin Gal。我不确定Tensorflow或Keras是否已经实现了这种方法。