SSE 中的打包掩码
Packed masking in SSE
我需要为打包的单个构建某种掩码系统,因为我需要对包含少于 4 个元素的向量使用打包操作。
所以,例如,我需要做这样的事情:
section .data
align 16
a: dd 1.5, 2.3, 5.0
align 16
x: dd 1.0, -3.0, 5.0
global main
main: start
movaps xmm0, [x]
movaps xmm1, [a]
addps xmm0, xmm1
haddps xmm0, xmm0
haddps xmm0, xmm0
这应该会导致 xmm0
11.8, 11.8, 11.8, 11.8
这样我就可以取其中一个来得到我的操作结果。
这是必需的,因为代码应该处理用户的输入,该输入可能不包含 4 个元素的倍数,并且我不想编写特殊情况来处理它,而是想重用我已经使用的相同代码有一些细微的变化。
据我了解,在这种情况下,将 a
移动到 xmm0
最终会得到 xmm0
1.5, 2.3, 5.0, 0.0
所以不应该有任何问题,因为添加 0 不会改变任何东西。
但是如果 a
是从 C
程序传递的 float*
呢?据我了解,作为在 xmm0
中复制的第四个元素,我很有可能得到一个不同于 0.0
的值,因为我是从内存中复制而不是处理定义的常量。
当然这会打乱我所有的计算,导致不需要的结果,所以这是我的想法:我可以 "mask" xmm0
的内容基于我有多少元素吗?
这意味着,在这种情况下,我必须手动将 xmm0
的第四个元素设置为 0,因为需要前三个元素。
这是我写的代码:
section .data
align 16
a: dd 1.5, 2.3, 5.0, 7.0
align 16
x: dd 1.0, -3.0, 5.0, 7.0
align 16
mask: dd 0x00, 0x00, 0x00, 0xFF
section .bss
section .text
global main
main: start
movaps xmm0, [x]
movaps xmm1, [a]
movaps xmm2, [mask] ; move the mask to a support registry
cmpnltps xmm3, xmm2 ; this compare should put -NaN where xmm2 has 0xFF
andps xmm0, xmm3 ; mask x vector
andps xmm1, xmm3 ; mask a vector
; let's make the needed operations to compute the result
addps xmm0, xmm1
haddps xmm0, xmm0
haddps xmm0, xmm0
; yay! there's 11.8, 11.8, 11.8, 11.8 in xmm0!
stop
我已经尝试了几个示例,它在我需要时工作正常,即使我更改掩码以排除一些其他值(0x00, 0x00, 0xFF, 0xFF
仅适用于前 2 个元素等)。
现在,考虑到我几天前开始使用 SSE
,我不确定这是不是正确的方法,我想不出一些例子来证明它不起作用,所以问题来了:有没有 better/official 方法来实现我需要的,如果没有,我的代码是否可以完成工作,或者仅仅因为我正在使用一个 "lucky"例子?
对于带有 gcc 向量扩展的 C 代码,
typedef float v4sf __attribute__((vector_size(16)));
v4sf foo(float const *restrict a, float const *restrict b)
{
float const *restrict aa = __builtin_assume_aligned(a, 16);
float const *restrict ba = __builtin_assume_aligned(b, 16);
v4sf av = *(v4sf*)aa;
v4sf bv = *(v4sf*)ba;
v4sf sv = av+bv;
float temp = sv[0]+sv[1]+sv[2];
v4sf ret = {temp,temp,temp,temp};
return ret;
}
gcc -Ofast -S
生成以下程序集(AT&T 语法):
foo:
movaps (%rsi), %xmm1 #load 1 of the vectors
addps (%rdi), %xmm1 #load the 2.nd vector, add to 1.st
movaps %xmm1, %xmm0 #make a copy of the sum
movaps %xmm1, %xmm2 #make a second copy
shufps , %xmm1, %xmm0 #shuffle [3][2][1][0] to [1][1][1][1]
unpckhps %xmm1, %xmm1 #unpack [3][2][1][0] to [3][3][2][2]
addss %xmm2, %xmm0 #add [3][2][1][0] to [1][1][1][1]
addss %xmm1, %xmm0 #add [3][3][2][2] to [3+1][2+1][1+1][0+1]
shufps [=11=], %xmm0, %xmm0 #shuffle [0+1+2] to all positions
ret
避免从内存中加载常量掩码的需要。
我需要为打包的单个构建某种掩码系统,因为我需要对包含少于 4 个元素的向量使用打包操作。
所以,例如,我需要做这样的事情:
section .data
align 16
a: dd 1.5, 2.3, 5.0
align 16
x: dd 1.0, -3.0, 5.0
global main
main: start
movaps xmm0, [x]
movaps xmm1, [a]
addps xmm0, xmm1
haddps xmm0, xmm0
haddps xmm0, xmm0
这应该会导致 xmm0
11.8, 11.8, 11.8, 11.8
这样我就可以取其中一个来得到我的操作结果。
这是必需的,因为代码应该处理用户的输入,该输入可能不包含 4 个元素的倍数,并且我不想编写特殊情况来处理它,而是想重用我已经使用的相同代码有一些细微的变化。
据我了解,在这种情况下,将 a
移动到 xmm0
最终会得到 xmm0
1.5, 2.3, 5.0, 0.0
所以不应该有任何问题,因为添加 0 不会改变任何东西。
但是如果 a
是从 C
程序传递的 float*
呢?据我了解,作为在 xmm0
中复制的第四个元素,我很有可能得到一个不同于 0.0
的值,因为我是从内存中复制而不是处理定义的常量。
当然这会打乱我所有的计算,导致不需要的结果,所以这是我的想法:我可以 "mask" xmm0
的内容基于我有多少元素吗?
这意味着,在这种情况下,我必须手动将 xmm0
的第四个元素设置为 0,因为需要前三个元素。
这是我写的代码:
section .data
align 16
a: dd 1.5, 2.3, 5.0, 7.0
align 16
x: dd 1.0, -3.0, 5.0, 7.0
align 16
mask: dd 0x00, 0x00, 0x00, 0xFF
section .bss
section .text
global main
main: start
movaps xmm0, [x]
movaps xmm1, [a]
movaps xmm2, [mask] ; move the mask to a support registry
cmpnltps xmm3, xmm2 ; this compare should put -NaN where xmm2 has 0xFF
andps xmm0, xmm3 ; mask x vector
andps xmm1, xmm3 ; mask a vector
; let's make the needed operations to compute the result
addps xmm0, xmm1
haddps xmm0, xmm0
haddps xmm0, xmm0
; yay! there's 11.8, 11.8, 11.8, 11.8 in xmm0!
stop
我已经尝试了几个示例,它在我需要时工作正常,即使我更改掩码以排除一些其他值(0x00, 0x00, 0xFF, 0xFF
仅适用于前 2 个元素等)。
现在,考虑到我几天前开始使用 SSE
,我不确定这是不是正确的方法,我想不出一些例子来证明它不起作用,所以问题来了:有没有 better/official 方法来实现我需要的,如果没有,我的代码是否可以完成工作,或者仅仅因为我正在使用一个 "lucky"例子?
对于带有 gcc 向量扩展的 C 代码,
typedef float v4sf __attribute__((vector_size(16)));
v4sf foo(float const *restrict a, float const *restrict b)
{
float const *restrict aa = __builtin_assume_aligned(a, 16);
float const *restrict ba = __builtin_assume_aligned(b, 16);
v4sf av = *(v4sf*)aa;
v4sf bv = *(v4sf*)ba;
v4sf sv = av+bv;
float temp = sv[0]+sv[1]+sv[2];
v4sf ret = {temp,temp,temp,temp};
return ret;
}
gcc -Ofast -S
生成以下程序集(AT&T 语法):
foo:
movaps (%rsi), %xmm1 #load 1 of the vectors
addps (%rdi), %xmm1 #load the 2.nd vector, add to 1.st
movaps %xmm1, %xmm0 #make a copy of the sum
movaps %xmm1, %xmm2 #make a second copy
shufps , %xmm1, %xmm0 #shuffle [3][2][1][0] to [1][1][1][1]
unpckhps %xmm1, %xmm1 #unpack [3][2][1][0] to [3][3][2][2]
addss %xmm2, %xmm0 #add [3][2][1][0] to [1][1][1][1]
addss %xmm1, %xmm0 #add [3][3][2][2] to [3+1][2+1][1+1][0+1]
shufps [=11=], %xmm0, %xmm0 #shuffle [0+1+2] to all positions
ret
避免从内存中加载常量掩码的需要。