在多核上训练LSTM

时间:2018-09-13 10:52:46

标签: python tensorflow machine-learning keras lstm

我正在使用顺序模型创建用于keras中时间序列预测的LSTM模型,并且在合理的时间范围内生成足够高级的模型时遇到了问题。

我当前要生成的模型是两个分层的150个节点,并运行1000个纪元。我使用的数据是大约750000个数据点的简单时间序列。在我的PC上这大约需要70个小时,而在高层AWS E2服务器上却没有更快的速度。在这两种情况下,尽管可用72个核,但它从未使用超过4个核。

我想知道是否有一种使用多核训练模型的方法。 LSTM是否可行?我见过其他人使用fit_generator函数开发LSTM,并在我的模型中进行了尝试(根据建议调整了训练数据集),但是发现模型的训练速度没有提高。任何对此的见识将不胜感激。

0 个答案:

没有答案