如何使用 R 在基于代理的建模中管理内存
How to manage memory in agent-based modeling with R
我正在使用 R 构建基于代理的模型,但由于尝试使用大对象而出现内存问题。特别是,在初始化时创建了 8 个 3D 数组,并且在每个时间步骤中,每个 3D 数组都由不同的函数填充。
目前,ABM 运行超过 1825 天,模拟了 2500 个人在景观中移动。景观中有 1000 个单元格。使用此配置,我没有内存问题。
初始化时,
1 3D 数组如下:
h <- array(NA, dim=c(1825, 48, 2500),
dimnames=list(NULL, NULL, as.character(seq(1, 2500, 1))))
## 3th dimension = individual ID
1 3D 数组如下:
p <- array(NA, dim=c(1825, 38, 1000),
dimnames=list(NULL, NULL, as.character(seq(1, 1000, 1))))
## 3th dimension = cell ID
6个3D数组如下:
t <- array(NA, dim=c(1825, 41, 2500),
dimnames=list(NULL, NULL, as.character(seq(1, 2500, 1))))
## 3th dimension = individual ID
数组包含 character/string 种数据类型。
理想情况下,我想增加个人数量 and/or 补丁数量,但由于内存问题这是不可能的。似乎有一些工具可用,例如 bigmemory
、gc
来管理内存。这些工具有效吗?我是编程初学者,没有管理内存和高性能计算的经验。非常感谢任何建议,感谢您的宝贵时间。
sessionInfo()
R version 3.5.3 (2019-03-11)
Platform: x86_64-w64-mingw32/x64 (64-bit)
Running under: Windows 7 x64 (build 7601) Service Pack 1
根据我的理解 bigmemory
只适用于矩阵而不是 multi-dimensional 数组,但是您可以将多维数组保存为矩阵列表。
gc
只是垃圾收集器,你真的不必调用它,因为它会自动调用,但手册还指出:
It can be useful to call gc after a large object has been removed, as
this may prompt R to return memory to the operating system.
我认为对您的任务最有用的软件包是 ff
。
这里有一个简短的例子来说明包 ff
的强度,它 将数据存储在磁盘上 并且几乎不影响内存。
初始化数组 base-R:
p <- array(NA, dim=c(1825, 38, 1000),
dimnames=list(NULL, NULL, as.character(seq(1, 1000, 1))))
format(object.size(p), units="Mb")
"264.6 Mb"
所以总的来说,您的初始数组已经占用了将近 5GB 的内存,这会让您在繁重的计算中遇到麻烦。
用ff初始化数组:
library(ff)
myArr <- ff(NA, dim=c(1825, 38, 1000),
dimnames=list(NULL, NULL, as.character(seq(1, 1000, 1))),
filename="arr.ffd", vmode="logical", overwrite = T)
format(object.size(myArr), units="Mb")
[1] "0.1 Mb"
相等性测试:
euqals <- list()
for (i in 1:dim(p)[1]) {
euqals[[i]] <- all.equal(p[i,,],
myArr[i,,])
}
all(unlist(euqals))
[1] TRUE
你有什么理由必须坚持使用数组数据类型吗?
如果你的数组中有很多 NA,那么这意味着你使用的内存比你真正需要的多。这是 R 中数组的缺点。
如果您正在执行的操作不一定要求您的数据是数组,那么您应该通过将其重塑为 data.frame.
来节省 一些内存
下面的示例显示了从数组转换后 data.frame 的样子。请注意,我必须显式使用 na.rm=FALSE
,否则结果将是 0 行数据。
devtools::install_github("Rdatatable/data.table@as.dt.array.null.dimnames")
library(data.table)
p <- array(NA, dim=c(1825, 38, 1000),
dimnames=list(NULL, NULL, as.character(seq(1, 1000, 1))))
as.data.table(p, na.rm=FALSE)
# V1 V2 V3 value
# <int> <int> <char> <lgcl>
# 1: 1 1 1 NA
# 2: 1 1 10 NA
# 3: 1 1 100 NA
# 4: 1 1 1000 NA
# 5: 1 1 101 NA
另一种方法是使用 data.cube 包。它基本上会在幕后完成我上面为您编写的内容。您仍然有数组的 [
运算符,但是 data.cube 对象将无法与期望输入数组的 R 函数一起使用,因为它们会强制 data.cube 数组失去所有内存优势。
内存优势可能非常显着,例如 data.cube vignette:
array: 34.13 GB
data.cube: 0.01 GB
我正在使用 R 构建基于代理的模型,但由于尝试使用大对象而出现内存问题。特别是,在初始化时创建了 8 个 3D 数组,并且在每个时间步骤中,每个 3D 数组都由不同的函数填充。
目前,ABM 运行超过 1825 天,模拟了 2500 个人在景观中移动。景观中有 1000 个单元格。使用此配置,我没有内存问题。
初始化时,
1 3D 数组如下:
h <- array(NA, dim=c(1825, 48, 2500), dimnames=list(NULL, NULL, as.character(seq(1, 2500, 1)))) ## 3th dimension = individual ID
1 3D 数组如下:
p <- array(NA, dim=c(1825, 38, 1000), dimnames=list(NULL, NULL, as.character(seq(1, 1000, 1)))) ## 3th dimension = cell ID
6个3D数组如下:
t <- array(NA, dim=c(1825, 41, 2500), dimnames=list(NULL, NULL, as.character(seq(1, 2500, 1)))) ## 3th dimension = individual ID
数组包含 character/string 种数据类型。
理想情况下,我想增加个人数量 and/or 补丁数量,但由于内存问题这是不可能的。似乎有一些工具可用,例如 bigmemory
、gc
来管理内存。这些工具有效吗?我是编程初学者,没有管理内存和高性能计算的经验。非常感谢任何建议,感谢您的宝贵时间。
sessionInfo() R version 3.5.3 (2019-03-11) Platform: x86_64-w64-mingw32/x64 (64-bit) Running under: Windows 7 x64 (build 7601) Service Pack 1
根据我的理解 bigmemory
只适用于矩阵而不是 multi-dimensional 数组,但是您可以将多维数组保存为矩阵列表。
gc
只是垃圾收集器,你真的不必调用它,因为它会自动调用,但手册还指出:
It can be useful to call gc after a large object has been removed, as this may prompt R to return memory to the operating system.
我认为对您的任务最有用的软件包是 ff
。
这里有一个简短的例子来说明包 ff
的强度,它 将数据存储在磁盘上 并且几乎不影响内存。
初始化数组 base-R:
p <- array(NA, dim=c(1825, 38, 1000),
dimnames=list(NULL, NULL, as.character(seq(1, 1000, 1))))
format(object.size(p), units="Mb")
"264.6 Mb"
所以总的来说,您的初始数组已经占用了将近 5GB 的内存,这会让您在繁重的计算中遇到麻烦。
用ff初始化数组:
library(ff)
myArr <- ff(NA, dim=c(1825, 38, 1000),
dimnames=list(NULL, NULL, as.character(seq(1, 1000, 1))),
filename="arr.ffd", vmode="logical", overwrite = T)
format(object.size(myArr), units="Mb")
[1] "0.1 Mb"
相等性测试:
euqals <- list()
for (i in 1:dim(p)[1]) {
euqals[[i]] <- all.equal(p[i,,],
myArr[i,,])
}
all(unlist(euqals))
[1] TRUE
你有什么理由必须坚持使用数组数据类型吗?
如果你的数组中有很多 NA,那么这意味着你使用的内存比你真正需要的多。这是 R 中数组的缺点。
如果您正在执行的操作不一定要求您的数据是数组,那么您应该通过将其重塑为 data.frame.
下面的示例显示了从数组转换后 data.frame 的样子。请注意,我必须显式使用 na.rm=FALSE
,否则结果将是 0 行数据。
devtools::install_github("Rdatatable/data.table@as.dt.array.null.dimnames")
library(data.table)
p <- array(NA, dim=c(1825, 38, 1000),
dimnames=list(NULL, NULL, as.character(seq(1, 1000, 1))))
as.data.table(p, na.rm=FALSE)
# V1 V2 V3 value
# <int> <int> <char> <lgcl>
# 1: 1 1 1 NA
# 2: 1 1 10 NA
# 3: 1 1 100 NA
# 4: 1 1 1000 NA
# 5: 1 1 101 NA
另一种方法是使用 data.cube 包。它基本上会在幕后完成我上面为您编写的内容。您仍然有数组的 [
运算符,但是 data.cube 对象将无法与期望输入数组的 R 函数一起使用,因为它们会强制 data.cube 数组失去所有内存优势。
内存优势可能非常显着,例如 data.cube vignette:
array: 34.13 GB
data.cube: 0.01 GB