我试图通过R使用H2O构建多个模型,使用一个大型数据集(〜10GB)的子集。这些数据是价值一年的数据,我试图建立51个模型(即,在第一周训练,在第二周预测等),每周有大约1.5-2.5百万行,其中有8个变量。R H2O - 内存管理
我在一个循环里面做了这个,我知道并不总是R中最好的方法。我发现的另一个问题是H2O实体会累积先前的对象,所以我创建了一个函数来删除它们中的所有对象主数据集除外。
h2o.clean <- function(clust = localH2O, verbose = TRUE, vte = c()){
# Find all objects on server
keysToKill <- h2o.ls(clust)$Key
# Remove items to be excluded, if any
keysToKill <- setdiff(keysToKill, vte)
# Loop thru and remove items to be removed
for(i in keysToKill){
h2o.rm(object = clust, keys = i)
if(verbose == TRUE){
print(i);flush.console()
}
}
# Print remaining objects in cluster.
h2o.ls(clust)
}
该脚本运行良好一段时间然后崩溃 - 通常与抱怨内存不足和交换到磁盘。
下面是一些伪代码来描述过程
# load h2o library
library(h2o)
# create h2o entity
localH2O = h2o.init(nthreads = 4, max_mem_size = "6g")
# load data
dat1.hex = h2o.importFile(localH2O, inFile, key = "dat1.hex")
# Start loop
for(i in 1:51){
# create test/train hex objects
train1.hex <- dat1.hex[dat1.hex$week_num == i,]
test1.hex <- dat1.hex[dat1.hex$week_num == i + 1,]
# train gbm
dat1.gbm <- h2o.gbm(y = 'click_target2', x = xVars, data = train1.hex
, nfolds = 3
, importance = T
, distribution = 'bernoulli'
, n.trees = 100
, interaction.depth = 10,
, shrinkage = 0.01
)
# calculate out of sample performance
test2.hex <- cbind.H2OParsedData(test1.hex,h2o.predict(dat1.gbm, test1.hex))
colnames(test2.hex) <- names(head(test2.hex))
gbmAuc <- h2o.performance(test2.hex$X1, test2.hex$click_target2)@model$auc
# clean h2o entity
h2o.clean(clust = localH2O, verbose = F, vte = c('dat1.hex'))
} # end loop
我的问题是,如果有,是什么,来管理一个独立的实体数据和内存的正确方式(这不是在Hadoop或运行群集 - 这种类型的进程只是一个大的EC2实例(〜64GB RAM + 12个CPU))?我应该在每个循环后杀死并重新创建H2O实体(这是原始过程,但每次从文件中读取数据每次迭代会增加〜10分钟)?在每个循环之后有没有合适的方法来垃圾收集或释放内存?
任何建议,将不胜感激。
你可以通过键删除所有你想要的东西:'h2o.rm(localH2O,“keyDataWhichIWantDelete”)' – 2015-02-27 16:43:45