@ cuda.jit和@jit之间的区别(target =' gpu')

时间:2016-03-09 11:15:41

标签: cuda numba

我有一个关于使用Continuum的Accelerate和numba包中的Python CUDA库的问题。装饰师@jittarget = gpu使用的@cuda.jit是否与max_element相同?

1 个答案:

答案 0 :(得分:3)

不,它们不一样,尽管最终汇编到PTX汇编程序的路径是。 @jit装饰器是通用编译器路径,可以选择性地引导到CUDA设备上。 @cuda.jit装饰器实际上是Continuum Analytics开发的低级Python CUDA内核方言。因此,您可以获得threadIdx等CUDA内置变量和__shared__@cuda.jit等内存空间说明符的支持。

如果要在Python中编写CUDA内核并编译并运行它,请使用@cuda.jit。否则,如果您想加速现有的Python,请使用带有CUDA目标的@jit