如何从 SSE2 __m128i 结构中提取字节?
How to extract bytes from an SSE2 __m128i structure?
我是 SIMD 内在函数的初学者,所以我会提前感谢大家的耐心等待。我有一个涉及无符号字节绝对差比较的应用程序(我正在处理灰度图像)。
我尝试了 AVX、更现代的 SSE 版本等,但最终决定 SSE2 似乎足够并且对单个字节的支持最多 - 如果我错了请纠正我。
我有两个问题:第一,加载128位寄存器的正确方法是什么?我想我应该传递与 128 的倍数对齐的加载内在函数数据,但这是否适用于像这样的 2D 数组代码:
greys = aligned_alloc(16, xres * sizeof(int8_t*));
for (uint32_t x = 0; x < xres; x++)
{
greys[x] = aligned_alloc(16, yres * sizeof(int8_t*));
}
(上面的代码假定 xres 和 yres 相同,并且是 2 的幂)。这会变成内存中线性的、完整的块吗?然后,我可以在循环时继续将地址(将它们递增 128)传递给 SSE2 加载内在函数吗?或者像这样的二维数组需要做一些不同的事情吗?
我的第二个问题:完成所有矢量处理后,我到底如何从 __m128i
中提取修改后的字节?查看 Intel Intrinsics Guide,将向量类型转换为标量类型的指令很少见。我找到的最接近的是 int _mm_movemask_epi8 (__m128i a)
但我不太明白如何使用它。
哦,第三个问题 - 我假设 _mm_load_si128
只加载有符号字节?而且我找不到任何其他字节加载函数,所以我猜你应该从每个函数中减去 128,然后再计算它?
我知道这些是 SIMD 专家的基本问题,但我希望这对像我这样的初学者有用。如果您认为我对应用程序的整个方法是错误的,或者我最好使用更现代的 SIMD 扩展,我很想知道。我只想谦虚地警告我从来没有使用过汇编,所有这些琐碎的东西都需要大量的解释才能帮助我。
尽管如此,我非常感谢您提供的任何说明。
以防万一:我的目标是低功耗 i7 Skylake 架构。但是在更老的机器上也有应用程序 运行 会很好(因此 SSE2)。
最不明显的问题优先:
once I've done all my vector processing, how the heck do I extract the modified bytes from the __m128i
用int64_t _mm_cvtsi128_si64x(__m128i)
或the low 32 bits with int _mm_cvtsi128_si32 (__m128i a)
.
将低64位提取为整数
如果你想要向量的其他部分,而不是低元素,你的选择是:
打乱向量以在低元素中使用您想要的数据创建一个新的 __m128i
,并使用 cvt 内在函数(asm 中的 MOVD 或 MOVQ)。
Use SSE2 int _mm_extract_epi16 (__m128i a, int imm8)
, or the SSE4.1 similar instructions for other element sizes such as _mm_extract_epi64(v, 1);
(PEXTRB/W/D/Q) 不是最快的指令,但是如果你只需要一个高位元素,它们大约相当于一个单独的 shuffle 和 MOVD,但更小的机器代码。
_mm_store_si128
到对齐的临时数组并访问成员:如果您使用 -msse4.1
编译,编译器通常会将其优化为随机播放或 pextr*
指令或 -march=haswell
或其他。 print a __m128i variable 显示了一个示例,包括将 _mm_store_si128
显示为 alignas(16) uint64_t tmp[2]
的 Godbolt 编译器输出
或者用union { __m128i v; int64_t i64[2]; }
什么的。基于联合的类型双关在 C99 中是合法的,但仅作为 C++ 中的扩展。这与 tmp 数组的编译方式相同,通常不易阅读。
在 C++ 中也可以工作的联合的替代方法是 memcpy(&my_int64_local, 8 + (char*)my_vector, 8);
来提取高半部分,但这似乎更复杂,更不清晰,而且更有可能是编译器不会做的事情“看穿”。当它是一个完整的变量时,编译器通常很擅长优化小的固定大小的 memcpy,但这只是变量的一半。
如果向量的整个高半部分可以不加修改地直接进入内存(而不是在整数寄存器中需要),智能编译器可能会优化使用 MOVHPS 来存储__m128i
的高半部分与上述联合内容。
或者您可以使用 _mm_storeh_pi((__m64*)dst, _mm_castsi128_ps(vec))
。这只需要 SSE1,并且在大多数 CPU 上比 SSE4.1 pextrq
更有效。但是不要对即将再次使用的标量整数执行此操作;如果 SSE4.1 不可用,编译器可能会实际 MOVHPS 和整数重新加载,这通常不是最佳的。 (有些编译器如 MSVC 不优化内在函数。)
Does this turn into a linear, unbroken block in memory?
不,它是一个指针数组,指向单独的内存块,与适当的二维数组相比,引入了额外的间接级别。不要那样做。
做一个大的分配,自己做索引计算(使用array[x*yres + y]
)。
是的,使用 _mm_load_si128
从中加载数据,如果需要从偏移量加载,则使用 loadu。
assumed _mm_load_si128
only loads signed bytes
有符号或无符号不是字节的固有 属性,它只是您解释位的方式。您使用相同的加载内在函数来加载两个 64 位元素或一个 128 位位图。
使用适合您的数据的内部函数。这有点像汇编语言:一切都只是字节,机器会按照你用字节告诉它的去做。您可以选择产生有意义结果的一系列指令/内在函数。
整数加载内在函数采用 __m128i*
指针参数,因此您必须使用 _mm_load_si128( (const __m128i*) my_int_pointer )
或类似的。这看起来像指针别名(例如通过 short *
读取 int
的数组),这是 C 和 C++ 中的未定义行为。但是,这就是 Intel 所说的您应该这样做的方式,因此需要任何实现 Intel 内在函数的编译器才能使其正常工作。 gcc 通过用 __attribute__((may_alias))
.
定义 __m128i
来做到这一点
另请参阅 Loading data for GCC's vector extensions,其中指出您可以将 Intel 内在函数用于 GNU C 原生矢量扩展,并展示了如何 load/store。
要了解更多关于 SIMD 和 SSE 的信息,sse 标签 wiki 中有一些链接,包括一些介绍/教程链接。
x86 标签 wiki 有一些很好的 x86 asm/性能链接。
我是 SIMD 内在函数的初学者,所以我会提前感谢大家的耐心等待。我有一个涉及无符号字节绝对差比较的应用程序(我正在处理灰度图像)。
我尝试了 AVX、更现代的 SSE 版本等,但最终决定 SSE2 似乎足够并且对单个字节的支持最多 - 如果我错了请纠正我。
我有两个问题:第一,加载128位寄存器的正确方法是什么?我想我应该传递与 128 的倍数对齐的加载内在函数数据,但这是否适用于像这样的 2D 数组代码:
greys = aligned_alloc(16, xres * sizeof(int8_t*));
for (uint32_t x = 0; x < xres; x++)
{
greys[x] = aligned_alloc(16, yres * sizeof(int8_t*));
}
(上面的代码假定 xres 和 yres 相同,并且是 2 的幂)。这会变成内存中线性的、完整的块吗?然后,我可以在循环时继续将地址(将它们递增 128)传递给 SSE2 加载内在函数吗?或者像这样的二维数组需要做一些不同的事情吗?
我的第二个问题:完成所有矢量处理后,我到底如何从 __m128i
中提取修改后的字节?查看 Intel Intrinsics Guide,将向量类型转换为标量类型的指令很少见。我找到的最接近的是 int _mm_movemask_epi8 (__m128i a)
但我不太明白如何使用它。
哦,第三个问题 - 我假设 _mm_load_si128
只加载有符号字节?而且我找不到任何其他字节加载函数,所以我猜你应该从每个函数中减去 128,然后再计算它?
我知道这些是 SIMD 专家的基本问题,但我希望这对像我这样的初学者有用。如果您认为我对应用程序的整个方法是错误的,或者我最好使用更现代的 SIMD 扩展,我很想知道。我只想谦虚地警告我从来没有使用过汇编,所有这些琐碎的东西都需要大量的解释才能帮助我。
尽管如此,我非常感谢您提供的任何说明。
以防万一:我的目标是低功耗 i7 Skylake 架构。但是在更老的机器上也有应用程序 运行 会很好(因此 SSE2)。
最不明显的问题优先:
once I've done all my vector processing, how the heck do I extract the modified bytes from the
__m128i
用int64_t _mm_cvtsi128_si64x(__m128i)
或the low 32 bits with int _mm_cvtsi128_si32 (__m128i a)
.
如果你想要向量的其他部分,而不是低元素,你的选择是:
打乱向量以在低元素中使用您想要的数据创建一个新的
__m128i
,并使用 cvt 内在函数(asm 中的 MOVD 或 MOVQ)。Use SSE2
int _mm_extract_epi16 (__m128i a, int imm8)
, or the SSE4.1 similar instructions for other element sizes such as_mm_extract_epi64(v, 1);
(PEXTRB/W/D/Q) 不是最快的指令,但是如果你只需要一个高位元素,它们大约相当于一个单独的 shuffle 和 MOVD,但更小的机器代码。
的 Godbolt 编译器输出_mm_store_si128
到对齐的临时数组并访问成员:如果您使用-msse4.1
编译,编译器通常会将其优化为随机播放或pextr*
指令或-march=haswell
或其他。 print a __m128i variable 显示了一个示例,包括将_mm_store_si128
显示为alignas(16) uint64_t tmp[2]
或者用
union { __m128i v; int64_t i64[2]; }
什么的。基于联合的类型双关在 C99 中是合法的,但仅作为 C++ 中的扩展。这与 tmp 数组的编译方式相同,通常不易阅读。在 C++ 中也可以工作的联合的替代方法是
memcpy(&my_int64_local, 8 + (char*)my_vector, 8);
来提取高半部分,但这似乎更复杂,更不清晰,而且更有可能是编译器不会做的事情“看穿”。当它是一个完整的变量时,编译器通常很擅长优化小的固定大小的 memcpy,但这只是变量的一半。如果向量的整个高半部分可以不加修改地直接进入内存(而不是在整数寄存器中需要),智能编译器可能会优化使用 MOVHPS 来存储
__m128i
的高半部分与上述联合内容。或者您可以使用
_mm_storeh_pi((__m64*)dst, _mm_castsi128_ps(vec))
。这只需要 SSE1,并且在大多数 CPU 上比 SSE4.1pextrq
更有效。但是不要对即将再次使用的标量整数执行此操作;如果 SSE4.1 不可用,编译器可能会实际 MOVHPS 和整数重新加载,这通常不是最佳的。 (有些编译器如 MSVC 不优化内在函数。)
Does this turn into a linear, unbroken block in memory?
不,它是一个指针数组,指向单独的内存块,与适当的二维数组相比,引入了额外的间接级别。不要那样做。
做一个大的分配,自己做索引计算(使用array[x*yres + y]
)。
是的,使用 _mm_load_si128
从中加载数据,如果需要从偏移量加载,则使用 loadu。
assumed
_mm_load_si128
only loads signed bytes
有符号或无符号不是字节的固有 属性,它只是您解释位的方式。您使用相同的加载内在函数来加载两个 64 位元素或一个 128 位位图。
使用适合您的数据的内部函数。这有点像汇编语言:一切都只是字节,机器会按照你用字节告诉它的去做。您可以选择产生有意义结果的一系列指令/内在函数。
整数加载内在函数采用 __m128i*
指针参数,因此您必须使用 _mm_load_si128( (const __m128i*) my_int_pointer )
或类似的。这看起来像指针别名(例如通过 short *
读取 int
的数组),这是 C 和 C++ 中的未定义行为。但是,这就是 Intel 所说的您应该这样做的方式,因此需要任何实现 Intel 内在函数的编译器才能使其正常工作。 gcc 通过用 __attribute__((may_alias))
.
__m128i
来做到这一点
另请参阅 Loading data for GCC's vector extensions,其中指出您可以将 Intel 内在函数用于 GNU C 原生矢量扩展,并展示了如何 load/store。
要了解更多关于 SIMD 和 SSE 的信息,sse 标签 wiki 中有一些链接,包括一些介绍/教程链接。
x86 标签 wiki 有一些很好的 x86 asm/性能链接。