在使用Tensorflow数据并行时是否真的有必要定义设备?

时间:2017-03-26 17:01:24

标签: tensorflow multi-gpu

我从original white paper了解到,Tensorflow采用贪婪的方法来决定如何在现有设备之间分配操作。但是,Using multiple GPUs上唯一可用的多gpu示例表明,Operations会被收集到“塔”中并明确分配给特定设备。是否可以简单地定义这些塔的多个副本并让Tensorflow自动将它们分配给不同的GPU?

0 个答案:

没有答案
相关问题