我可以使用AVX2分散指令来加速某些负载吗?

时间:2014-07-02 19:33:33

标签: c++ avx2

我已经描述了我拥有的AVX2重量级功能,瓶颈如下所示:

std::uint64_t data[8];

// Some computation that fills data

std::uint64_t X[4] = { data[7], data[5], data[3], data[1] };
__m256i vec = _mm256_loadu_si256(reinterpret_cast<__m256i*>(X));

// Compute more with vec
// Later on use data[6], data[4], data[2], and data[0] in a similar fashion

实际上,阵列也是适当对齐的(所以load代替loadu)。但问题是,AVX(2)有更快的方法吗?具体来说,我正在查看收集说明。我可以使用它们从vec初始化data吗?或者其他一些指示值得一试?

1 个答案:

答案 0 :(得分:5)

很难在不知道编译器生成什么代码的情况下发表评论,但这里有一些我的编译器(gcc)必须说的内容。

typedef unsigned long long uint64_t;
typedef uint64_t vec2 __attribute__((vector_size(8*sizeof(uint64_t))));
typedef uint64_t vec __attribute__((vector_size(4*sizeof(uint64_t))));
vec f(vec a,vec b){
  vec i={7,5,3,1};
  return __builtin_shuffle(a,b,i);
}
vec g(vec2 x){
  vec r={x[7],x[5],x[3],x[1]};
  return r;
}

我得到f:

vpunpckhqdq %ymm1, %ymm0, %ymm1
vpermq  $39, %ymm1, %ymm0

我按值传递向量,通过指针传递它们会给出:

vmovdqa (%rdi), %ymm0
vpunpckhqdq (%rsi), %ymm0, %ymm0
vpermq  $39, %ymm0, %ymm0

和g:

vmovq   32(%rsp), %xmm2
vmovq   64(%rsp), %xmm3
vpinsrq $1, 16(%rsp), %xmm2, %xmm1
vpinsrq $1, 48(%rsp), %xmm3, %xmm0
vinserti128 $0x1, %xmm1, %ymm0, %ymm0
相关问题