-march native 如何影响浮点精度?
How does -march native affect floating point accuracy?
我编写的代码中包含大量浮点运算。我们有测试用例记录给定输入的输出并验证我们不会对结果进行太多更改。有人建议我启用 -march native 来提高性能。但是,启用该功能后,我们会遇到测试失败的情况,因为结果已更改。由于访问由 -march native 启用的更现代的硬件而将使用的指令是否减少了浮点错误的数量?增加浮点数错误?或者两者兼而有之?融合乘加应该减少浮点错误的数量,但随着时间的推移添加的指令是典型的吗?或者是否添加了一些说明,虽然效率更高但准确度较低?
我定位的平台是x86_64Linux。根据/proc/cpuinfo
的处理器信息为:
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 85
model name : Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz
stepping : 4
microcode : 0x2006a0a
cpu MHz : 2799.999
cache size : 30976 KB
physical id : 0
siblings : 44
core id : 0
cpu cores : 22
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 22
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc art arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc cpuid aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 sdbg fma cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm abm 3dnowprefetch cpuid_fault epb cat_l3 cdp_l3 invpcid_single pti intel_ppin ssbd mba ibrs ibpb stibp tpr_shadow vnmi flexpriority ept vpid fsgsbase tsc_adjust bmi1 hle avx2 smep bmi2 erms invpcid rtm cqm mpx rdt_a avx512f avx512dq rdseed adx smap clflushopt clwb intel_pt avx512cd avx512bw avx512vl xsaveopt xsavec xgetbv1 xsaves cqm_llc cqm_occup_llc cqm_mbm_total cqm_mbm_local dtherm ida arat pln pts hwp hwp_act_window hwp_epp hwp_pkg_req pku ospke md_clear flush_l1d
bugs : cpu_meltdown spectre_v1 spectre_v2 spec_store_bypass l1tf mds swapgs taa itlb_multihit
bogomips : 4200.00
clflush size : 64
cache_alignment : 64
address sizes : 46 bits physical, 48 bits virtual
power management:
-march native
表示 -march $MY_HARDWARE
。 我们不知道你有什么硬件。对你来说,那将是 -march=skylake-avx512
(SkyLake SP) 可以通过明确指定你的硬件架构来重现结果。
使用更现代的指令,特别是融合乘加 (FMA),错误很可能会 减少。这是操作 a*b+c,但四舍五入一次而不是两次。这节省了一个舍入误差。
FMA 的使用既可以减少也可以增加错误,两者 两者都可能导致测试用例失败,具体取决于测试的工作方式。 FMA 改善了“局部”错误,但放在更广泛的上下文中,效果可能恰恰相反。
例如,a * c - b * d
(2x2 矩阵的行列式)在 FMA 收缩时会带来一些(通常是轻微的)麻烦。如果没有 FMA,减法有可能消除舍入误差,如果两边相同的话。这并不总是会发生,但是当 a * c = b * d
时可能会发生,这是特别有趣的,因为这意味着行列式应该为零。如果没有 FMA,结果实际上将为零,使用 FMA 则不会。
#include <math.h>
#include <stdio.h>
double determinant(double a, double b, double c, double d)
{
return a * c - b * d;
}
int main()
{
volatile double a = M_PI;
double x = determinant(a, a, a, a);
printf("%E\n", x);
return 0;
}
此程序由 GCC 11.2 编译,启用了优化并允许 FMA,does not print zero,但大约为 1E-16。
单元测试中“这个结果是否足够接近”测试的一些变体会得出结论,这个结果相对于零来说是极其错误的。不过,另一种看待它的方法是,如果其中一个输入仅改变 1 ULP,就会引入 1E-15 数量级的错误,这更糟。
大多数 special/new 指令要么不影响准确性,要么在默认情况下受到限制。例如 addsubpd
和 haddpd
(来自 SSE3)只是等价于以前需要更多代码的东西,而 roundpd
(来自 SSE4.1)默认仅用于不不会影响结果(将 roundpd
用于 floor
和 ceil
是安全的,具有讽刺意味的是,将它用于 round
本身是非常重要的,因为不同的中途舍入)。
我编写的代码中包含大量浮点运算。我们有测试用例记录给定输入的输出并验证我们不会对结果进行太多更改。有人建议我启用 -march native 来提高性能。但是,启用该功能后,我们会遇到测试失败的情况,因为结果已更改。由于访问由 -march native 启用的更现代的硬件而将使用的指令是否减少了浮点错误的数量?增加浮点数错误?或者两者兼而有之?融合乘加应该减少浮点错误的数量,但随着时间的推移添加的指令是典型的吗?或者是否添加了一些说明,虽然效率更高但准确度较低?
我定位的平台是x86_64Linux。根据/proc/cpuinfo
的处理器信息为:
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 85
model name : Intel(R) Xeon(R) Gold 6152 CPU @ 2.10GHz
stepping : 4
microcode : 0x2006a0a
cpu MHz : 2799.999
cache size : 30976 KB
physical id : 0
siblings : 44
core id : 0
cpu cores : 22
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 22
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc art arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc cpuid aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 sdbg fma cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm abm 3dnowprefetch cpuid_fault epb cat_l3 cdp_l3 invpcid_single pti intel_ppin ssbd mba ibrs ibpb stibp tpr_shadow vnmi flexpriority ept vpid fsgsbase tsc_adjust bmi1 hle avx2 smep bmi2 erms invpcid rtm cqm mpx rdt_a avx512f avx512dq rdseed adx smap clflushopt clwb intel_pt avx512cd avx512bw avx512vl xsaveopt xsavec xgetbv1 xsaves cqm_llc cqm_occup_llc cqm_mbm_total cqm_mbm_local dtherm ida arat pln pts hwp hwp_act_window hwp_epp hwp_pkg_req pku ospke md_clear flush_l1d
bugs : cpu_meltdown spectre_v1 spectre_v2 spec_store_bypass l1tf mds swapgs taa itlb_multihit
bogomips : 4200.00
clflush size : 64
cache_alignment : 64
address sizes : 46 bits physical, 48 bits virtual
power management:
-march native
表示 -march $MY_HARDWARE
。 我们不知道你有什么硬件。对你来说,那将是 -march=skylake-avx512
(SkyLake SP) 可以通过明确指定你的硬件架构来重现结果。
使用更现代的指令,特别是融合乘加 (FMA),错误很可能会 减少。这是操作 a*b+c,但四舍五入一次而不是两次。这节省了一个舍入误差。
FMA 的使用既可以减少也可以增加错误,两者 两者都可能导致测试用例失败,具体取决于测试的工作方式。 FMA 改善了“局部”错误,但放在更广泛的上下文中,效果可能恰恰相反。
例如,a * c - b * d
(2x2 矩阵的行列式)在 FMA 收缩时会带来一些(通常是轻微的)麻烦。如果没有 FMA,减法有可能消除舍入误差,如果两边相同的话。这并不总是会发生,但是当 a * c = b * d
时可能会发生,这是特别有趣的,因为这意味着行列式应该为零。如果没有 FMA,结果实际上将为零,使用 FMA 则不会。
#include <math.h>
#include <stdio.h>
double determinant(double a, double b, double c, double d)
{
return a * c - b * d;
}
int main()
{
volatile double a = M_PI;
double x = determinant(a, a, a, a);
printf("%E\n", x);
return 0;
}
此程序由 GCC 11.2 编译,启用了优化并允许 FMA,does not print zero,但大约为 1E-16。
单元测试中“这个结果是否足够接近”测试的一些变体会得出结论,这个结果相对于零来说是极其错误的。不过,另一种看待它的方法是,如果其中一个输入仅改变 1 ULP,就会引入 1E-15 数量级的错误,这更糟。
大多数 special/new 指令要么不影响准确性,要么在默认情况下受到限制。例如 addsubpd
和 haddpd
(来自 SSE3)只是等价于以前需要更多代码的东西,而 roundpd
(来自 SSE4.1)默认仅用于不不会影响结果(将 roundpd
用于 floor
和 ceil
是安全的,具有讽刺意味的是,将它用于 round
本身是非常重要的,因为不同的中途舍入)。