如何使用 avx(但没有 avx-512)将 int 64 转换为 int 32
How to convert int 64 to int 32 with avx (but without avx-512)
我想将 4 个长整数(64 位)的寄存器转换/打包为 4 个整数(32 位)。换句话说,将 int64 的 __m256i 转换为 int32 的 __m128i。
我手头没有 avx-512,所以内在:
__m256i n;
__m128i r128i = _mm256_cvtepi64_epi32( n );
我不可用。有比以下更好的选择吗?
失去矢量化:
__m256i n;
alignas(32) int64_t temp[4];
_mm256_store_si256((__m256i*)temp, n);
int32_t a = (int32_t)temp[0];
int32_t b = (int32_t)temp[1];
int32_t c = (int32_t)temp[2];
int32_t d = (int32_t)temp[3];
__m128i r128i = _mm_set_epi32(a, b, c, d);
这打包成 16 位整数而不是 32 位
__m128i lo_lane = _mm256_castsi256_si128(n);
__m128i hi_lane = _mm256_extracti128_si256(n, 1);
__m128i r128i = _mm_packus_epi32(lo_lane, hi_lane);
所以只是截断,而不是有符号(或无符号)饱和? (我问是因为 AVX-512 提供 signed and unsigned saturation versions,以及截断。您使用的非 AVX512 包,如 _mm_packus_epi32
(packusdw
)总是饱和,您必须使用普通洗牌如果你想在 AVX-512 之前截断打包,请使用说明。但是如果因为上半部分已知为零,所以任何一个都可以,那么是的,打包说明可能很有用。)
单向量 __m256i
-> __m128i
对于单个向量,生成较窄的输出,您可以使用 vextracti128
和 vshufps
将单个 __m256i
打包成 __m128i
。在 AVX-512 之前,vshufps
是仅有的具有任何控制输入的 2 输入混洗之一,例如不仅仅是固定交错。
在具有内在函数的 C 中,您需要 _mm_castsi128_ps
并返回以使编译器对整数向量使用 _mm_shuffle_ps
感到满意,但现代 CPU 没有旁路延迟以在两者之间使用 FP 洗牌整数 SIMD 指令。或者如果你只是要存储它,你可以将结果保留为 __m128
并使用 _mm_store_ps((float*)p, vec);
(是的,将整数指针转换为 float*
仍然是严格别名安全的,因为deref 发生在内部,而不是在纯 C 中。
#include <immintrin.h>
__m128 cvtepi64_epi32_avx(__m256i v)
{
__m256 vf = _mm256_castsi256_ps( v ); // free
__m128 hi = _mm256_extractf128_ps(vf, 1); // vextractf128
__m128 lo = _mm256_castps256_ps128( vf ); // also free
// take the bottom 32 bits of each 64-bit chunk in lo and hi
__m128 packed = _mm_shuffle_ps(lo, hi, _MM_SHUFFLE(2, 0, 2, 0)); // shufps
//return _mm_castps_si128(packed); // if you want
return packed;
}
这是每 128 位输出数据进行 2 次随机播放。我们可以做得更好:每 256 位输出数据进行 2 次洗牌。 (如果我们可以很好地安排我们的输入,甚至只有 1 个)。
2x __m256i
输入产生 __m256i
输出
幸运的是 clang 发现了比我更好的优化。我想到 2x vpermd
+ vpblendd
可以做到,将一个向量中每个元素的 low32 洗牌到底部通道,或另一个向量的顶部通道。 (使用 set_epi32(6,4,2,0, 6,4,2,0)
随机播放控件)。
但 clang 将其优化为 vshufps
以将我们想要的所有元素放入一个向量中,然后 vpermpd
(相当于 vpermq
)将它们放入正确的顺序。 (这通常是一个很好的策略,我自己应该想到这一点。:P 同样,它利用 vshufps
作为 2-input shuffle。)
将其转换回内在函数,我们得到的代码将为 GCC 或其他编译器 (Godbolt compiler explorer for this and the original) 编译成高效的 asm:
// 2x 256 -> 1x 256-bit result
__m256i pack64to32(__m256i a, __m256i b)
{
// grab the 32-bit low halves of 64-bit elements into one vector
__m256 combined = _mm256_shuffle_ps(_mm256_castsi256_ps(a),
_mm256_castsi256_ps(b), _MM_SHUFFLE(2,0,2,0));
// {b3,b2, a3,a2 | b1,b0, a1,a0} from high to low
// re-arrange pairs of 32-bit elements with vpermpd (or vpermq if you want)
__m256d ordered = _mm256_permute4x64_pd(_mm256_castps_pd(combined), _MM_SHUFFLE(3,1,2,0));
return _mm256_castpd_si256(ordered);
}
它编译成只有 2 条指令,带有即时随机播放控制,没有向量常量。源代码看起来很冗长,但它主要只是为了让编译器对类型满意而进行的强制转换。
# clang -O3 -march=haswell
pack64to32: # @pack64to32
vshufps ymm0, ymm0, ymm1, 136 # ymm0 = ymm0[0,2],ymm1[0,2],ymm0[4,6],ymm1[4,6]
vpermpd ymm0, ymm0, 216 # ymm0 = ymm0[0,2,1,3]
ret
输入重新排序以避免交叉车道:一个 vshufps
如果您可以排列成对的输入向量,使它们具有 {a0, a1 | a4, a5}
和 {a2, a3 | a6, a7}
顺序的 64 位元素,则您只需要一个通道内洗牌:低 4x 32 位元素来自每个 256 位输入的低半部分,等等。你可以用一个 _mm256_shuffle_ps
来完成工作。 (与上面完全一样,不需要 _mm256_permute4x64_pd
)。在这个建议的问题下的评论中归功于@chtz。
Mandelbrot 不需要元素之间的交互,因此您可以使用成对的 __m256i
向量和 64 位元素的排列。
如果您开始使用 {0,1,2,3}
和 {4,5,6,7}
之类的展开循环并使用 _mm256_add_epi64
和 set1_epi64(8)
来递增,您可以改为从 {0,1,4,5}
和 {2,3,6,7}
一切都应该以相同的方式工作。 (除非您正在做其他事情,否则元素的顺序很重要?)
Asm 与内部名称
咨询Intel's intrinsics guide to search by asm mnemonic; they're shorter to type and easier to think about in terms of what the machine can actually do, and asm mnemonics are needed for looking up performance in https://uops.info/table.html / https://agner.org/optimize/
我想将 4 个长整数(64 位)的寄存器转换/打包为 4 个整数(32 位)。换句话说,将 int64 的 __m256i 转换为 int32 的 __m128i。
我手头没有 avx-512,所以内在:
__m256i n;
__m128i r128i = _mm256_cvtepi64_epi32( n );
我不可用。有比以下更好的选择吗?
失去矢量化:
__m256i n;
alignas(32) int64_t temp[4];
_mm256_store_si256((__m256i*)temp, n);
int32_t a = (int32_t)temp[0];
int32_t b = (int32_t)temp[1];
int32_t c = (int32_t)temp[2];
int32_t d = (int32_t)temp[3];
__m128i r128i = _mm_set_epi32(a, b, c, d);
这打包成 16 位整数而不是 32 位
__m128i lo_lane = _mm256_castsi256_si128(n);
__m128i hi_lane = _mm256_extracti128_si256(n, 1);
__m128i r128i = _mm_packus_epi32(lo_lane, hi_lane);
所以只是截断,而不是有符号(或无符号)饱和? (我问是因为 AVX-512 提供 signed and unsigned saturation versions,以及截断。您使用的非 AVX512 包,如 _mm_packus_epi32
(packusdw
)总是饱和,您必须使用普通洗牌如果你想在 AVX-512 之前截断打包,请使用说明。但是如果因为上半部分已知为零,所以任何一个都可以,那么是的,打包说明可能很有用。)
单向量 __m256i
-> __m128i
对于单个向量,生成较窄的输出,您可以使用 vextracti128
和 vshufps
将单个 __m256i
打包成 __m128i
。在 AVX-512 之前,vshufps
是仅有的具有任何控制输入的 2 输入混洗之一,例如不仅仅是固定交错。
在具有内在函数的 C 中,您需要 _mm_castsi128_ps
并返回以使编译器对整数向量使用 _mm_shuffle_ps
感到满意,但现代 CPU 没有旁路延迟以在两者之间使用 FP 洗牌整数 SIMD 指令。或者如果你只是要存储它,你可以将结果保留为 __m128
并使用 _mm_store_ps((float*)p, vec);
(是的,将整数指针转换为 float*
仍然是严格别名安全的,因为deref 发生在内部,而不是在纯 C 中。
#include <immintrin.h>
__m128 cvtepi64_epi32_avx(__m256i v)
{
__m256 vf = _mm256_castsi256_ps( v ); // free
__m128 hi = _mm256_extractf128_ps(vf, 1); // vextractf128
__m128 lo = _mm256_castps256_ps128( vf ); // also free
// take the bottom 32 bits of each 64-bit chunk in lo and hi
__m128 packed = _mm_shuffle_ps(lo, hi, _MM_SHUFFLE(2, 0, 2, 0)); // shufps
//return _mm_castps_si128(packed); // if you want
return packed;
}
这是每 128 位输出数据进行 2 次随机播放。我们可以做得更好:每 256 位输出数据进行 2 次洗牌。 (如果我们可以很好地安排我们的输入,甚至只有 1 个)。
2x __m256i
输入产生 __m256i
输出
幸运的是 clang 发现了比我更好的优化。我想到 2x vpermd
+ vpblendd
可以做到,将一个向量中每个元素的 low32 洗牌到底部通道,或另一个向量的顶部通道。 (使用 set_epi32(6,4,2,0, 6,4,2,0)
随机播放控件)。
但 clang 将其优化为 vshufps
以将我们想要的所有元素放入一个向量中,然后 vpermpd
(相当于 vpermq
)将它们放入正确的顺序。 (这通常是一个很好的策略,我自己应该想到这一点。:P 同样,它利用 vshufps
作为 2-input shuffle。)
将其转换回内在函数,我们得到的代码将为 GCC 或其他编译器 (Godbolt compiler explorer for this and the original) 编译成高效的 asm:
// 2x 256 -> 1x 256-bit result
__m256i pack64to32(__m256i a, __m256i b)
{
// grab the 32-bit low halves of 64-bit elements into one vector
__m256 combined = _mm256_shuffle_ps(_mm256_castsi256_ps(a),
_mm256_castsi256_ps(b), _MM_SHUFFLE(2,0,2,0));
// {b3,b2, a3,a2 | b1,b0, a1,a0} from high to low
// re-arrange pairs of 32-bit elements with vpermpd (or vpermq if you want)
__m256d ordered = _mm256_permute4x64_pd(_mm256_castps_pd(combined), _MM_SHUFFLE(3,1,2,0));
return _mm256_castpd_si256(ordered);
}
它编译成只有 2 条指令,带有即时随机播放控制,没有向量常量。源代码看起来很冗长,但它主要只是为了让编译器对类型满意而进行的强制转换。
# clang -O3 -march=haswell
pack64to32: # @pack64to32
vshufps ymm0, ymm0, ymm1, 136 # ymm0 = ymm0[0,2],ymm1[0,2],ymm0[4,6],ymm1[4,6]
vpermpd ymm0, ymm0, 216 # ymm0 = ymm0[0,2,1,3]
ret
输入重新排序以避免交叉车道:一个 vshufps
如果您可以排列成对的输入向量,使它们具有 {a0, a1 | a4, a5}
和 {a2, a3 | a6, a7}
顺序的 64 位元素,则您只需要一个通道内洗牌:低 4x 32 位元素来自每个 256 位输入的低半部分,等等。你可以用一个 _mm256_shuffle_ps
来完成工作。 (与上面完全一样,不需要 _mm256_permute4x64_pd
)。在这个建议的问题下的评论中归功于@chtz。
Mandelbrot 不需要元素之间的交互,因此您可以使用成对的 __m256i
向量和 64 位元素的排列。
如果您开始使用 {0,1,2,3}
和 {4,5,6,7}
之类的展开循环并使用 _mm256_add_epi64
和 set1_epi64(8)
来递增,您可以改为从 {0,1,4,5}
和 {2,3,6,7}
一切都应该以相同的方式工作。 (除非您正在做其他事情,否则元素的顺序很重要?)
Asm 与内部名称
咨询Intel's intrinsics guide to search by asm mnemonic; they're shorter to type and easier to think about in terms of what the machine can actually do, and asm mnemonics are needed for looking up performance in https://uops.info/table.html / https://agner.org/optimize/