缓存行,错误共享和对齐

时间:2013-08-14 15:56:45

标签: c++ multithreading caching parallel-processing

我编写了以下简短的C ++程序来重现Herb Sutter所描述的错误共享效果:

比如说,我们想要执行总量的WORKLOAD整数运算,我们希望它们平均分配给一些(PARALLEL)线程。出于此测试的目的,每个线程将从整数数组中递增其自己的专用变量,因此该过程可以理想地并行化。

void thread_func(int* ptr)
{
    for (unsigned i = 0; i < WORKLOAD / PARALLEL; ++i)
    {
        (*ptr)++;
    }
}

int main()
{
    int arr[PARALLEL * PADDING];
    thread threads[PARALLEL];

    for (unsigned i = 0; i < PARALLEL; ++i)
    {
        threads[i] = thread(thread_func, &(arr[i * PADDING]));
    }
    for (auto& th : threads)
    {
        th.join();
    }
    return 0;
}

我认为这个想法很容易掌握。如果你设置

#define PADDING 16

每个线程都将在单独的缓存行上工作(假设缓存行的长度为64字节)。因此,结果将是加速的线性增加,直到PARALLEL> #core。另一方面,如果将PADDING设置为低于16的任何值,则应该遇到严重的争用,因为现在至少有两个线程可能在相同的高速缓存行上运行,然而这些高速缓存线受内置硬件互斥锁的保护。我们希望我们的加速不仅在这种情况下是次线性的,而且甚至总是&lt; 1,因为看不见的锁车队。

现在,我的第一次尝试几乎满足了这些期望,但PADDING避免错误共享所需的最小值大约是8而不是16。我很困惑大约半小时,直到我得出明显的结论,那里不能保证我的数组与主内存中的缓存行的开头完全对齐。实际对齐可能根据许多条件而变化,包括阵列的大小。

在这个例子中,当然没有必要让我们以特殊的方式对齐数组,因为我们可以将PADDING保持在16并且一切正常。但人们可以想象一下,它确实会产生影响,无论某个结构是否与高速缓存行对齐。因此,我添加了一些代码行来获取有关数组实际对齐的一些信息。

int main()
{
    int arr[PARALLEL * 16];
    thread threads[PARALLEL];
    int offset = 0;

    while (reinterpret_cast<int>(&arr[offset]) % 64) ++offset;
    for (unsigned i = 0; i < PARALLEL; ++i)
    {
        threads[i] = thread(thread_func, &(arr[i * 16 + offset]));
    }
    for (auto& th : threads)
    {
        th.join();
    }
    return 0;
}

尽管在这种情况下这个解决方案对我来说很好,但我不确定它是否是一般的好方法。所以这是我的问题:

除了我在上面的例子中所做的以外,是否有任何常见的方法让内存中的对象与缓存行对齐?

(使用g ++ MinGW Win32 x86 v.4.8.1 posix dwarf rev3)

3 个答案:

答案 0 :(得分:11)

您应该能够从编译器请求所需的对齐:

alignas(64) int arr[PARALELL * PADDING]; // align the array to a 64 byte line

答案 1 :(得分:4)

gcc支持对齐的关键字:http://gcc.gnu.org/onlinedocs/gcc/Variable-Attributes.html

你可能想要这样的东西:

int arr[PARALLEL * 16] __attribute__ ((aligned (8)));

这使arr与8字节边界对齐。

Visual Studio也有类似的功能:http://msdn.microsoft.com/en-us/library/83ythb65.aspx

答案 2 :(得分:2)

在现代C ++(17及更高版本)中,您应该使用hardware_constructive_interference_size