CUDA中每个Warp关系的数据大小

时间:2016-06-16 14:06:47

标签: cuda nvprof

当数据类型的大小发生变化时,我试图查看内核中执行的指令数

为了获得自定义大小的数据结构,我创建了一个结构如下,

#define DATABYTES 40

__host__ __device__
struct floatArray
{
    float a[DATABYTES/4];
};

然后创建一个内核只是为了将上面的数据类型数组从一个数组复制到另一个数组

__global__
void copy_large_data(floatArray * d_in, floatArray * d_out)
{
    d_out[threadIdx.x] = d_in[threadIdx.x];
}

然后仅使用单个块

调用上述内核32个线程
floatArray * d_in;
floatArray * d_out;

cudaMalloc(&d_in, 32 * sizeof(floatArray));
cudaMalloc(&d_out, 32 * sizeof(floatArray));

copy_large_data<<<1, 32>>>(d_in, d_out);

当我使用nvprof分析程序并检查instructions per warp时,我可以看到参数值随DATABYTES值的变化而变化。

我的问题是,此指令计数增加的原因是由floatArray结构内的数组引起的。因为当我们在内核中调用副本时,它实际上会扩展并复制a结构中数组floatArray的每个元素,从而创建更多指令。

有没有办法使用单个指令在内核中复制自定义struct变量?

1 个答案:

答案 0 :(得分:1)

您可以假设在更改阵列大小时复制指令的数量会增加。你可以在PTX代码和程序集中检查它,我将在下面显示。

加载/存储指令的最大大小为128位,参见例如here。这意味着,对于您的情况,使用float4代替float,您仍然可以提高4倍。

或者,您可以明确指定数据结构的对齐方式,如programming guide

中所述
#define DATABYTES 32
struct __align__(16) floatArray
{
    float a[DATABYTES/4];
};

要查看PTX代码,请生成目标文件nvcc -c ...并使用cubobjdump --dump-ptx objfile.o。 对于您的示例,相关部分如下所示:

ld.global.f32 %f1, [%rd7];
ld.global.f32 %f2, [%rd7+4];
ld.global.f32 %f3, [%rd7+8];
ld.global.f32 %f4, [%rd7+12];
ld.global.f32 %f5, [%rd7+16];
ld.global.f32 %f6, [%rd7+20];
ld.global.f32 %f7, [%rd7+24];
ld.global.f32 %f8, [%rd7+28];
ld.global.f32 %f9, [%rd7+32];
ld.global.f32 %f10, [%rd7+36];
st.global.f32 [%rd6+36], %f10;
st.global.f32 [%rd6+32], %f9;
st.global.f32 [%rd6+28], %f8;
st.global.f32 [%rd6+24], %f7;
st.global.f32 [%rd6+20], %f6;
st.global.f32 [%rd6+16], %f5;
st.global.f32 [%rd6+12], %f4;
st.global.f32 [%rd6+8], %f3;
st.global.f32 [%rd6+4], %f2;
st.global.f32 [%rd6], %f1;

如果进一步增加数组,您将找到编译器将选择循环的点,而不是为每个加载/存储发出指令。

因此,您可以使用cubobjdump --dump-sass objfile.o

检查装配
相关问题