我对两层Keras LSTM模型进行了建模。我想计算执行一个单层所需的处理时间.....因此,我创建了一个中间层来预测一个单层的处理时间。下面是代码:
layer_name = 'lstm1'
intermediate_layer_model = Model(inputs=model2.input,
outputs=model2.get_layer(layer_name).output)
start = time.time()
intermediate_output = intermediate_layer_model.predict(X_test[0:1][0:1][0:9])
end = time.time()
print("Time: {} ".format((end-start)*1000))
print("Time: {} ".format((end-start)*1000))
打印42毫秒
但是当我仅从
start = time.time()
intermediate_output = intermediate_layer_model.predict(X_test[0:1][0:1][0:9])
end = time.time()
print("Time: {} ".format((end-start)*1000))
在随后的jupyter笔记本中,它打印14毫秒。如果其他代码在同一单元格中一起运行,则处理时间的变化不应太大,因为开始时间应从调用位置开始而不是从单元格的开头开始。请对此发表评论.........什么是计算处理时间的更好方法。...