我应该在 case/senario 中使用 GPU(而不是 CPU)来 运行 我的程序?
In which case/senario should I use GPU( instead of CPU) to run my program?
更新:好的,我将尝试编写一些代码并找出答案。
如果我有一个 运行 像这样的程序:
- 它每次从字典中挑选 20 个单词。 (本词典包含100,000个单词)
- 它将这20个单词组合成一个句子。 (例如
good cats are always nice to me
)
- 它 运行 一个局部函数(例如有一个局部 Class 定义了一个方法,例如
MyTool.validate_sentence("good dogs are always nice to me")
)
如果使用 GPU,这会 运行 更快吗?
编程语言是C/Rust。
非常感谢!
简短回答,是 运行 这种类型的数据将优于 CPU。
长答案,如果它是(可流式传输),我的意思是如果您可以将数据结构化为可迭代的并且可以一个一个地发送到某个消费端,那么是的.
但是关于您使用的编程语言,我只能告诉您,在 C 和 Rust 等语言中,您肯定会找到支持您的 Gpu Api 的库,例如 运行 你的代码在 Nvidia 的 Cuda 线程上等等...
更新:好的,我将尝试编写一些代码并找出答案。
如果我有一个 运行 像这样的程序:
- 它每次从字典中挑选 20 个单词。 (本词典包含100,000个单词)
- 它将这20个单词组合成一个句子。 (例如
good cats are always nice to me
) - 它 运行 一个局部函数(例如有一个局部 Class 定义了一个方法,例如
MyTool.validate_sentence("good dogs are always nice to me")
)
如果使用 GPU,这会 运行 更快吗?
编程语言是C/Rust。
非常感谢!
简短回答,是 运行 这种类型的数据将优于 CPU。
长答案,如果它是(可流式传输),我的意思是如果您可以将数据结构化为可迭代的并且可以一个一个地发送到某个消费端,那么是的.
但是关于您使用的编程语言,我只能告诉您,在 C 和 Rust 等语言中,您肯定会找到支持您的 Gpu Api 的库,例如 运行 你的代码在 Nvidia 的 Cuda 线程上等等...