如何防止 Flux.jl 分配我的 GPU 内存的全部?
How to prevent Flux.jl from allocating the totality of my GPU's memory?
是否有任何内置于 Flux.jl 中的安全措施或选项可供我设置,以便我不会意外地分配我的 GPU 上的所有可用内存?我在 Flux.jl 文档中没有看到任何类型的 GPU 选项:https://fluxml.ai/Flux.jl/stable/gpu/
现在,Flux.jl 使用 CUDA.jl 作为 GPU 的接口。 CUDA.jl 有一个名为 JULIA_CUDA_MEMORY_LIMIT
的环境变量(您可以 read about in the docs),它可用于:
cap the amount of allocated GPU memory, in bytes.
请注意,这些环境变量应在导入包之前设置;在 运行 时间更改它们没有任何效果。
您可以在此处阅读有关 Flux 和 CUDA 中内存管理的更多一般信息:https://cuda.juliagpu.org/stable/usage/memory/#Memory-management
是否有任何内置于 Flux.jl 中的安全措施或选项可供我设置,以便我不会意外地分配我的 GPU 上的所有可用内存?我在 Flux.jl 文档中没有看到任何类型的 GPU 选项:https://fluxml.ai/Flux.jl/stable/gpu/
现在,Flux.jl 使用 CUDA.jl 作为 GPU 的接口。 CUDA.jl 有一个名为 JULIA_CUDA_MEMORY_LIMIT
的环境变量(您可以 read about in the docs),它可用于:
cap the amount of allocated GPU memory, in bytes.
请注意,这些环境变量应在导入包之前设置;在 运行 时间更改它们没有任何效果。
您可以在此处阅读有关 Flux 和 CUDA 中内存管理的更多一般信息:https://cuda.juliagpu.org/stable/usage/memory/#Memory-management