CUDA常量内存错误

时间:2013-10-07 04:14:14

标签: c++ cuda cuda-gdb gpu-constant-memory

我正在尝试使用CUDA 5.5为常量内存做一个示例代码。我有两个大小为3000的常量数组。我有另一个大小为N的全局数组X. 我想要计算

Y[tid] = X[tid]*A[tid%3000] + B[tid%3000]

这是代码。

#include <iostream>
#include <stdio.h>
using namespace std;

#include <cuda.h>



__device__ __constant__ int A[3000];
__device__ __constant__ int B[3000];


__global__ void kernel( int *dc_A, int *dc_B, int *X, int *out, int N)
{
    int tid = threadIdx.x + blockIdx.x*blockDim.x;
    if( tid<N )
    {
        out[tid] = dc_A[tid%3000]*X[tid] + dc_B[tid%3000];
    }

}

int main()
{
    int N=100000;

    // set affine constants on host
    int *h_A, *h_B ; //host vectors
    h_A = (int*) malloc( 3000*sizeof(int) );
    h_B = (int*) malloc( 3000*sizeof(int) );
    for( int i=0 ; i<3000 ; i++ )
    {
        h_A[i] = (int) (drand48() * 10);
        h_B[i] = (int) (drand48() * 10);
    }

    //set X and Y on host
    int * h_X = (int*) malloc( N*sizeof(int) );
    int * h_out = (int *) malloc( N*sizeof(int) );
    //set the vector
    for( int i=0 ; i<N ; i++ )
    {
        h_X[i] = i;
        h_out[i] = 0;
    }

    // copy, A,B,X,Y to device
    int * d_X, *d_out;
    cudaMemcpyToSymbol( A, h_A, 3000 * sizeof(int) ) ;
    cudaMemcpyToSymbol( B, h_B, 3000 * sizeof(int) ) ;

    cudaMalloc( (void**)&d_X, N*sizeof(int) ) );
    cudaMemcpy( d_X, h_X, N*sizeof(int), cudaMemcpyHostToDevice ) ;
    cudaMalloc( (void**)&d_out, N*sizeof(int) ) ;



    //call kernel for vector addition
    kernel<<< (N+1024)/1024,1024 >>>(A,B, d_X, d_out, N);
    cudaPeekAtLastError() ;
    cudaDeviceSynchronize() ;


    // D --> H
    cudaMemcpy(h_out, d_out, N * sizeof(int), cudaMemcpyDeviceToHost ) ;


    free(h_A);
    free(h_B);


    return 0;
}

我正在尝试通过此代码运行调试器来进行分析。事实证明,在复制到常量内存的行上,我使用调试器

得到以下错误
Coalescing of the CUDA commands output is off.
[Thread debugging using libthread_db enabled]
[New Thread 0x7ffff5c5b700 (LWP 31200)]

有人可以用常量记忆帮助我吗

1 个答案:

答案 0 :(得分:4)

这里有几个问题。通过显示使用这两个常量数组的“正确”方法开始可能更容易,然后解释为什么你做的不起作用。所以内核应该是这样的:

__global__ void kernel(int *X, int *out, int N)
{
    int tid = threadIdx.x + blockIdx.x*blockDim.x;
    if( tid<N )
    {
        out[tid] = A[tid%3000]*X[tid] + B[tid%3000];
    }
}

即。不要尝试将A和B传递给内核。原因如下:

  1. 有点令人困惑的是,主机代码中的AB不是有效的设备内存地址。它们是主机符号,它为运行时设备符号查找提供挂钩。将它们传递给内核是非法的 - 如果你想要它们的设备内存地址,你必须使用cudaGetSymbolAddress在运行时检索它。
  2. 即使您调用cudaGetSymbolAddress并在常量内存中检索符号设备地址,也不应将它们作为参数传递给内核,因为这样做不会在正在运行的内核中产生统一的内存访问。正确使用常量内存需要编译器发出特殊的PTX指令,编译器只有在知道特定的全局内存位置在常量内存中时才会这样做。如果按值将常量内存地址作为参数传递,则__constant__属性将丢失,编译器无法知道是否生成正确的加载指令
  3. 一旦你开始工作,你会发现它非常慢,如果你对它进行分析,你会发现有很高程度的指令重放和序列化。使用常量内存的整个想法是,当 warp中的每个线程访问常量内存中的相同值时,可以利用常量缓存广播机制。您的示例与此完全相反 - 每个线程都在访问不同的值。在这种用例中,常规全局内存会更快。还要注意模数运算符在当前GPU上的性能很差,你应该尽可能避免使用它。