可以在多个gpus上运行cuda内核吗?

这是一个相当简单的问题,但Google似乎没有答案,所以。

我想知道的是,如果我有两个能够运行cuda的gpu卡(相同),我的内核可以跨越这些卡吗? 或者它是绑定到一张卡片还是另一张? 也就是说cuda提供了整套可用的gpu内核,或者仅仅是它所运行的卡上的那些内核。

如果是这样,是否有什么特别的我需要知道,以实现目标?除了cuda sdk之外,还有什么例子值得了解?

目标语言当然是C / C ++。

提前致谢。


单个CUDA内核启动绑定到单个GPU。 为了使用多个GPU,将需要多个内核启动。

cuda设备运行时API侧重于选择哪个设备。 任何给定的内核启动都将在最近使用cudaSetDevice()选择的设备上启动

多GPU编程的例子在cuda示例中给出,带有P2P和简单的多GPU的简单多GPU

链接地址: http://www.djcxy.com/p/49073.html

上一篇: Is it possible to run a cuda kernel on multiple gpus

下一篇: Record streaming audio in java?