为什么tensorflow需要比模型文件更多的GPU RAM?

时间:2019-01-28 13:16:01

标签: python tensorflow

我有一个张量流模型,保存为协议缓冲区格式为model.pb184 MB。当我使用会话加载它时,我看到该进程占用了GPU RAM的11 GB。为什么会这样?

1 个答案:

答案 0 :(得分:0)

默认情况下,Tensorflow使用所有GPU内存以最大程度地减少内存碎片(请参阅documentation)。您可以通过使用allow_growth配置选项来防止此行为:

config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)