我正在进行一个模拟,它在主机上运行,并使用GPU进行计算。计算完成后,主机将内存从设备复制到自身,然后将计算的数据发送到远程主机。
基本上数据就可以了: GPU ->主机->网卡
由于仿真是实时的,时间是非常重要的,我希望有这样的东西:图形处理器-> NETWORKCARD,以减少数据传输的延迟。
有可能吗?如果不是,是不是有一天我们会看到呢?
编辑:远程主机=> CPU
发布于 2013-04-11 00:54:09
是的,这在CUDA4.0和更高版本中是可能的,在支持统一直接寻址的平台上使用GPUDirect facility是可能的(我认为在这个阶段基本上是带有费米卡或开普勒特尔萨卡的linux )。您没有详细说明“远程主机”是什么意思,但是如果您有一个可以使用MPI的网络,那么可能有一个现成的解决方案可供您使用。
至少mvapich2已经支持使用Infiniband或TCP/IP的GPU-GPU传输,包括通过PCI express总线直接到Infiniband适配器的RDMA。到目前为止,其他MPI实现可能也有支持,尽管我最近还没有太仔细地研究它,无法确定。
https://stackoverflow.com/questions/15927616
复制相似问题