如何使用 avx(但没有 avx-512)将 int 64 转换为 int 32

How to convert int 64 to int 32 with avx (but without avx-512)

我想将 4 个长整数(64 位)的寄存器转换/打包为 4 个整数(32 位)。换句话说,将 int64 的 __m256i 转换为 int32 的 __m128i。

我手头没有 avx-512,所以内在:

__m256i n;
__m128i r128i = _mm256_cvtepi64_epi32( n );

我不可用。有比以下更好的选择吗?

失去矢量化:

__m256i n;
alignas(32) int64_t temp[4];
_mm256_store_si256((__m256i*)temp, n);
int32_t a = (int32_t)temp[0];
int32_t b = (int32_t)temp[1];
int32_t c = (int32_t)temp[2];
int32_t d = (int32_t)temp[3];
__m128i r128i = _mm_set_epi32(a, b, c, d);

这打包成 16 位整数而不是 32 位

__m128i lo_lane = _mm256_castsi256_si128(n);
__m128i hi_lane = _mm256_extracti128_si256(n, 1);
__m128i r128i = _mm_packus_epi32(lo_lane, hi_lane);

所以只是截断,而不是有符号(或无符号)饱和? (我问是因为 AVX-512 提供 signed and unsigned saturation versions,以及截断。您使用的非 AVX512 包,如 _mm_packus_epi32packusdw)总是饱和,您必须使用普通洗牌如果你想在 AVX-512 之前截断打包,请使用说明。但是如果因为上半部分已知为零,所以任何一个都可以,那么是的,打包说明可能很有用。)


单向量 __m256i -> __m128i

对于单个向量,生成较窄的输出,您可以使用 vextracti128vshufps 将单个 __m256i 打包成 __m128i。在 AVX-512 之前,vshufps 是仅有的具有任何控制输入的 2 输入混洗之一,例如不仅仅是固定交错。

在具有内在函数的 C 中,您需要 _mm_castsi128_ps 并返回以使编译器对整数向量使用 _mm_shuffle_ps 感到满意,但现代 CPU 没有旁路延迟以在两者之间使用 FP 洗牌整数 SIMD 指令。或者如果你只是要存储它,你可以将结果保留为 __m128 并使用 _mm_store_ps((float*)p, vec); (是的,将整数指针转换为 float* 仍然是严格别名安全的,因为deref 发生在内部,而不是在纯 C 中。

#include <immintrin.h>

__m128 cvtepi64_epi32_avx(__m256i v)
{
   __m256 vf = _mm256_castsi256_ps( v );      // free
   __m128 hi = _mm256_extractf128_ps(vf, 1);  // vextractf128
   __m128 lo = _mm256_castps256_ps128( vf );  // also free
   // take the bottom 32 bits of each 64-bit chunk in lo and hi
   __m128 packed = _mm_shuffle_ps(lo, hi, _MM_SHUFFLE(2, 0, 2, 0));  // shufps
   //return _mm_castps_si128(packed);  // if you want
   return packed;
}   

这是每 128 位输出数据进行 2 次随机播放。我们可以做得更好:每 256 位输出数据进行 2 次洗牌。 (如果我们可以很好地安排我们的输入,甚至只有 1 个)。


2x __m256i 输入产生 __m256i 输出

幸运的是 clang 发现了比我更好的优化。我想到 2x vpermd + vpblendd 可以做到,将一个向量中每个元素的 low32 洗牌到底部通道,或另一个向量的顶部通道。 (使用 set_epi32(6,4,2,0, 6,4,2,0) 随机播放控件)。

但 clang 将其优化为 vshufps 以将我们想要的所有元素放入一个向量中,然后 vpermpd(相当于 vpermq)将它们放入正确的顺序。 (这通常是一个很好的策略,我自己应该想到这一点。:P 同样,它利用 vshufps 作为 2-input shuffle。)

将其转换回内在函数,我们得到的代码将为 GCC 或其他编译器 (Godbolt compiler explorer for this and the original) 编译成高效的 asm:

// 2x 256 -> 1x 256-bit result
__m256i pack64to32(__m256i a, __m256i b)
{
    // grab the 32-bit low halves of 64-bit elements into one vector
   __m256 combined = _mm256_shuffle_ps(_mm256_castsi256_ps(a),
                                       _mm256_castsi256_ps(b), _MM_SHUFFLE(2,0,2,0));
    // {b3,b2, a3,a2 | b1,b0, a1,a0}  from high to low

    // re-arrange pairs of 32-bit elements with vpermpd (or vpermq if you want)
    __m256d ordered = _mm256_permute4x64_pd(_mm256_castps_pd(combined), _MM_SHUFFLE(3,1,2,0));
    return _mm256_castpd_si256(ordered);
}

它编译成只有 2 条指令,带有即时随机播放控制,没有向量常量。源代码看起来很冗长,但它主要只是为了让编译器对类型满意而进行的强制转换。

# clang -O3 -march=haswell
pack64to32:                             # @pack64to32
        vshufps ymm0, ymm0, ymm1, 136           # ymm0 = ymm0[0,2],ymm1[0,2],ymm0[4,6],ymm1[4,6]
        vpermpd ymm0, ymm0, 216                 # ymm0 = ymm0[0,2,1,3]
        ret

输入重新排序以避免交叉车道:一个 vshufps

如果您可以排列成对的输入向量,使它们具有 {a0, a1 | a4, a5}{a2, a3 | a6, a7} 顺序的 64 位元素,则您只需要一个通道内洗牌:低 4x 32 位元素来自每个 256 位输入的低半部分,等等。你可以用一个 _mm256_shuffle_ps 来完成工作。 (与上面完全一样,不需要 _mm256_permute4x64_pd)。在这个建议的问题下的评论中归功于@chtz。

Mandelbrot 不需要元素之间的交互,因此您可以使用成对的 __m256i 向量和 64 位元素的排列。

如果您开始使用 {0,1,2,3}{4,5,6,7} 之类的展开循环并使用 _mm256_add_epi64set1_epi64(8) 来递增,您可以改为从 {0,1,4,5}{2,3,6,7} 一切都应该以相同的方式工作。 (除非您正在做其他事情,否则元素的顺序很重要?)


Asm 与内部名称

咨询Intel's intrinsics guide to search by asm mnemonic; they're shorter to type and easier to think about in terms of what the machine can actually do, and asm mnemonics are needed for looking up performance in https://uops.info/table.html / https://agner.org/optimize/