cudaMemcpy设备到远程主机

时间:2013-04-10 13:44:22

标签: networking cuda data-transfer

我正在进行一项在主机上运行的模拟并使用GPU进行计算。计算完成后,主机将内存从设备复制到自身,然后将计算数据发送到远程主机。

基本上数据会做:GPU - >主持人 - >网卡

由于模拟是实时的,时间非常重要,我希望有类似的东西:GPU - > NETWORKCARD,以减少数据传输的延迟。

有可能吗? 如果不是,那么有一天我们会看到什么吗?

编辑:远程主机=> CPU

1 个答案:

答案 0 :(得分:2)

是的,这可以在CUDA 4.0及更高版本中使用支持统一直接寻址的平台上的GPUDirect facility(我认为在此阶段基本上是使用Fermi或Kepler Telsa卡的Linux)。你没有多说“远程主机”的意思,但如果你有一个可行的MPI网络,你可能已经有了一个现成的解决方案。

至少mvapich2已经支持使用Infiniband或TCP / IP进行GPU-GPU传输,包括通过PCI Express总线直接向Infiniband适配器提供RDMA。其他MPI实现可能现在也有支持,虽然我最近没有仔细看它以确定。