为什么同时使用 numba.cuda 和 CuPy 从 GPU 传输数据这么慢?

Why it is so slow to transfer data from GPU when use numba.cuda and CuPy at the same time?

我从Cupy的文档中阅读了关于如何一起使用cupy和numba以及使用cuda加速代码的示例。 https://docs-cupy.chainer.org/en/stable/reference/interoperability.html

我写了一个类似的代码来测试它:

import cupy
from numba import cuda
import numpy as np
import time

@cuda.jit('void(float32[:], float32[:], float32[:])')
def add(x, y, out):
        start = cuda.grid(1)
        stride = cuda.gridsize(1)
        for i in range(start, x.shape[0], stride):
                out[i] = x[i] + y[i]


a = cupy.arange(10000000)
b = a * 2
out = cupy.zeros_like(a)

print("add function time consuming:")
s = time.time()
add(a, b, out)
e = time.time()
print(e-s)
s = time.time()
print("out[2]:")
print(out[2])
e = time.time()
print("the time of transfering out[2] out of GPU:")
print(e-s)

s = time.time()
new_OUT = a + b
print("new out[2] which only use cupy:")
print(new_OUT[2])
e = time.time()
print("the total time of running cupy addition and transfering new out[2] out of GPU:")
print(e-s)

输出为:

add function time consuming:
0.0019025802612304688
out[2]:
6
the time of transfering out[2] out of GPU:
1.5608515739440918
new out[2] which only use cupy:
6
the total time of running cupy addition and transfering new out[2] out of GPU:
0.002993345260620117

第一种情况下out[2]的调用怎么这么慢?

我正在编写一些需要处理一些 cupy 数组和矩阵的函数。这些函数运行良好,但是在 运行 调用这些函数之后,当我需要做一些修改时,即使调用 out.shape 之类的东西也非常慢(我的矩阵和数组非常大)。

我不确定这里发生了什么,因为 cupy 也使用 cuda,所以当我调用 a + b 时,它应该在 GPU 上 运行 但是当我调用 [= 时几乎没有耗时15=] 检查 out[2] 的值。但是第一种情况消耗超高

要理解您的代码输出,至少需要注意两件事:

  1. 在 CUDA 中,内核启动通常 配置 以指示网格配置(块数,每个块的线程数)。 numba CUDA 内核启动通常会在内核参数之前的方括号中显示网格配置:

    kernel_name[grid_configuration](kernel_arguments)
    

    在numba CUDA中,语法上允许省略方括号和网格配置,这具有[1,1](一个块,由一个线程组成)的网格配置的隐含含义。您的内核使用或多或少的任意网格配置,因为它使用 grid-stride loop。然而,这并不意味着网格配置无关紧要。这对性能很重要。 [1,1] 的网格配置会带来糟糕的性能,永远不应在性能至关重要的 CUDA 内核启动中使用。因此,我们可以通过更改您的内核调用来纠正此问题,例如:

    add[1024,256](a, b, out)
    

    这将启动一个包含 1024 个块的网格,每个块有 256 个线程。

  2. 在 CUDA 中,内核启动是异步的。这意味着启动内核的主机代码将启动启动但不会等待内核完成。这同样适用于 numba CUDA 内核启动。因此,内核启动本身的计时测量通常会令人困惑。出于计时目的,这可以通过强制 CPU 线程在计时区域内等待来调整,直到内核完成。在 numba CUDA 中,我们可以通过以下方式完成此操作:

    cuda.synchronize()