NumPy array2string 的奇怪表现

Strange performance from NumPy array2string

我正在使用 NumPy 的 array2string 函数将数组中的值转换为字符串格式以写入 ascii 文件。对于大型数组,它简单且相对快速,并且在循环中或使用 map.

执行本机 python 字符串格式化操作
aa = np.array2string(array.flatten(), precision=precision, separator=' ', max_line_width=(precision + 4) * ncolumns, prefix='         ', floatmode='fixed')

aa =  '         ' + aa[1:-1] + '\n'

但是,当使用小型数组进行测试时,当数组中的元素数量少于几千时,我注意到一些奇怪的结果。我已经 运行 与使用 mapjoin 的本机 python 方法进行了快速比较,并且在性能方面,它符合我的预期 - 随着数组的增加而变得更慢非常大,而且由于 numpy 函数的开销,它对于非常小的数组更快。

我已经使用 perfplot 到 运行 基准并说明我的意思:

有谁知道上面的 numpy.array2string 方法中出现奇怪的峰值的原因是什么? (100, 3) 数组实际上比 (500000,3) 数组慢。

我只是想知道发生了什么,numpy 解决方案仍然是我的数据的可能大小(>1000)的最佳选择,但尖峰似乎很奇怪。

更新 - 添加了完整代码

这是我 运行 在我的电脑上安装的完整脚本:

import numpy as np
import perfplot


precision = 16
ncolumns = 6

# numpy method
def numpystring(array, precision, ncolumns):
    indent = '          '
    aa = np.array2string(array.flatten(), precision=precision, separator=' ', max_line_width=(precision + 6) * ncolumns,
                     prefix='         ', floatmode='fixed')
    return indent + aa[1:-1] + '\n'

# native python string creation
def nativepython_string(array, precision, ncolumns):
    fmt = '{' + f":.{precision}f" + '}'
    data_str = ''

    # calculate number of full rows
    if array.size <= ncolumns:
        nrows = 1
    else:
        nrows = int(array.size / ncolumns)

    # write full rows
    for row in range(nrows):
        shift = row * ncolumns
        data_str += '          ' + ' '.join(
            map(lambda x: fmt.format(x), array.flatten()[0 + shift:ncolumns + shift])) + '\n'

    # write any remaining data in last non-full row
    if array.size > ncolumns and array.size % ncolumns != 0:
        data_str += '          ' + ' '.join(
            map(lambda x: fmt.format(x), array.flatten()[ncolumns + shift::])) + '\n'

    return data_str

# Benchmark methods
out = perfplot.bench(
    setup=lambda n: np.random.random([n,3]),  # setup random nx3 array
    kernels=[
        lambda a: nativepython_string(a, precision, ncolumns),
        lambda a: numpystring(a, precision, ncolumns)
    ],
    equality_check=None,
    labels=["Native", "NumPy"],
    n_range=[2**k for k in range(16)],
    xlabel="Number of vectors [Nr.]",
    title="String Conversion Performance"

)

out.show(
    time_unit="us",  # set to one of ("auto", "s", "ms", "us", or "ns") to force plot units
)
out.save("perf.png", transparent=True, bbox_inches="tight")

希望对您有所帮助。

更新 2 - 修正基准函数

显然 threshold 参数是原因。这是固定函数:

# numpy method
def numpystring(array, precision, ncolumns):
    indent = '          '
    aa = np.array2string(array.flatten(), precision=precision, separator=' ', max_line_width=(precision + 6) * ncolumns,
                     prefix='         ', floatmode='fixed', threshold=sys.maxsize)
    return indent + aa[1:-1] + '\n'

结果:

似乎 numpy 功能实际上比本机解决方案慢。

更新 3 - 更好的解决方案。

正如下面答案中所建议的,savetxt 中使用的方法可能更快。快速实施表明这是真的。

使用 savetxt 和小型二维数组的示例:

In [87]: np.savetxt('test.txt', np.arange(24).reshape(3,8), fmt='%5d')
In [88]: cat test.txt
    0     1     2     3     4     5     6     7
    8     9    10    11    12    13    14    15
   16    17    18    19    20    21    22    23

In [90]: np.savetxt('test.txt', np.arange(24).reshape(3,8), fmt='%5d', newline=' ')
In [91]: cat test.txt
    0     1     2     3     4     5     6     7     8     9    10    11    12    13    14    15    16    17    18    19    20    21    22    23 

它根据参数和列数构造一个fmt字符串:

In [95]: fmt=' '.join(['%5d']*8)
In [96]: fmt
Out[96]: '%5d %5d %5d %5d %5d %5d %5d %5d'

然后将此行写入文件:

In [97]: fmt%tuple(np.arange(8))
Out[97]: '    0     1     2     3     4     5     6     7'