在Jupyter笔记本中执行Keras执行时处理时间差很大

时间:2018-09-02 15:35:40

标签: python tensorflow keras deep-learning

我对两层Keras LSTM模型进行了建模。我想计算执行一个单层所需的处理时间.....因此,我创建了一个中间层来预测一个单层的处理时间。下面是代码:

layer_name = 'lstm1'
intermediate_layer_model = Model(inputs=model2.input,
                                 outputs=model2.get_layer(layer_name).output)
start = time.time() 
intermediate_output = intermediate_layer_model.predict(X_test[0:1][0:1][0:9])
end = time.time()
print("Time: {} ".format((end-start)*1000)) 

print("Time: {} ".format((end-start)*1000))打印42毫秒
但是当我仅从

运行代码时
start = time.time() 
intermediate_output = intermediate_layer_model.predict(X_test[0:1][0:1][0:9])
end = time.time()
print("Time: {} ".format((end-start)*1000))

在随后的jupyter笔记本中,它打印14毫秒。如果其他代码在同一单元格中一起运行,则处理时间的变化不应太大,因为开始时间应从调用位置开始而不是从单元格的开头开始。请对此发表评论.........什么是计算处理时间的更好方法。...

0 个答案:

没有答案