矢量化模运算

时间:2013-12-16 06:35:37

标签: c assembly x86-64 sse intrinsics

我正在尝试编写一些合理快速的组件向量加法代码。我正在使用(签名,我相信)64位整数。

功能是

void addRq (int64_t* a, const int64_t* b, const int32_t dim, const int64_t q) {
    for(int i = 0; i < dim; i++) {
        a[i] = (a[i]+b[i])%q; // LINE1
    }
}

我在IvyBridge(SSE4.2和AVX,但不是AVX2)上使用icc -std=gnu99 -O3(icc以后可以使用SVML)进行编译。

我的基线是从LINE1中移除%q。使用dim=11221184进行100次(迭代)函数调用需要1.6秒。 ICC自动矢量化SSE代码;大。

我真的想做模块化的补充。使用%q,ICC不会自动向量化代码,它会在11.8秒(!)内运行。即使忽略了之前尝试的自动矢量化,这似乎仍然过度。

由于我没有AVX2,因此使用SSE进行矢量化需要SVML,这也许就是ICC没有自动矢量化的原因。无论如何,这是我尝试对内循环进行矢量化:

__m128i qs = _mm_set1_epi64x(q);
for(int i = 0; i < dim; i+=2) {
    __m128i xs = _mm_load_si128((const __m128i*)(a+i));
    __m128i ys = _mm_load_si128((const __m128i*)(b+i));
    __m128i zs = _mm_add_epi64(xs,ys);
    zs = _mm_rem_epi64(zs,qs);
    _mm_store_si128((__m128i*)(a+i),zs);
}

主循环的组装是:

..B3.4:                         # Preds ..B3.2 ..B3.12
    movdqa    (%r12,%r15,8), %xmm0                          #59.22
    movdqa    %xmm8, %xmm1                                  #60.14
    paddq     (%r14,%r15,8), %xmm0                          #59.22
    call      __svml_i64rem2                                #61.9
    movdqa    %xmm0, (%r12,%r15,8)                          #61.36
    addq      $2, %r15                                      #56.30
    cmpq      %r13, %r15                                    #56.24
    jl        ..B3.4        # Prob 82%                      #56.24

因此代码按预期进行矢量化。我知道由于SVML,我可能不会获得2倍的加速,但是代码在12.5秒内运行,比没有矢量化的速度慢!这真的是最好的吗?

1 个答案:

答案 0 :(得分:12)

SSE2和AVX2都没有整数除法指令。英特尔对于调用SVML函数内在函数是不诚实的,因为它们中的许多都是复杂的函数,它们映射到多个指令而不仅仅是少数指令。

有一种方法可以使用SSE2或AVX2进行更快的分割(和模数)。见本文Improved division by invariant integers。基本上你预先计算一个除数然后进行乘法运算。预计算除数需要时间,但在代码中dim的某些值应该胜出。我在这里更详细地描述了这种方法SSE integer division? 我还在素数查找器Finding lists of prime numbers with SIMD - SSE/AVX

中成功实现了此方法

Agner Fog使用该论文中描述的方法在Vector Class中实现了32位(但不是64位)除法。如果您想要一些代码,那么这将是一个很好的起点,但您必须将其扩展到64位。

编辑:根据Mysticial的评论并假设输入已经减少,我为SSE生成了一个版本。如果这是在MSVC中编译的话那么它需要在64位模式下作为32位模式不支持_mm_set1_epi64x。这可以在32位模式模式下修复,但我不想这样做。

#ifdef _MSC_VER 
#include <intrin.h>
#endif
#include <nmmintrin.h>                 // SSE4.2
#include <stdint.h>
#include <stdio.h>

void addRq_SSE(int64_t* a, const int64_t* b, const int32_t dim, const int64_t q) {
    __m128i q2 = _mm_set1_epi64x(q);
    __m128i t2 = _mm_sub_epi64(q2,_mm_set1_epi64x(1));
    for(int i = 0; i < dim; i+=2) {
        __m128i a2 = _mm_loadu_si128((__m128i*)&a[i]);
        __m128i b2 = _mm_loadu_si128((__m128i*)&b[i]);
        __m128i c2 = _mm_add_epi64(a2,b2);
        __m128i cmp = _mm_cmpgt_epi64(c2, t2);
        c2 = _mm_sub_epi64(c2, _mm_and_si128(q2,cmp));
        _mm_storeu_si128((__m128i*)&a[i], c2);
    }
}

int main() {
    const int64_t dim = 20;
    int64_t a[dim];
    int64_t b[dim];
    int64_t q = 10;

    for(int i=0; i<dim; i++) {
        a[i] = i%q; b[i] = i%q;
    }
    addRq_SSE(a, b, dim, q);
    for(int i=0; i<dim; i++) {
        printf("%d\n", a[i]);
    }   
}
相关问题