r-bigmemory

    0热度

    1回答

    我正尝试使用read.big.matrix从包中以类似于Vignette for bigmemory的方式加载689.4 MB csv。 暗角代码: library(bigmemory) library(biganalytics) x <- read.big.matrix("airline.csv", type="integer", header=TRUE, backingfile

    2热度

    2回答

    我必须使用big.matrix对象,并且我无法计算某些函数。让我们考虑以下big.matrix: # create big.matrix object x <- as.big.matrix( matrix(sample(1:10, 20, replace=TRUE), 5, 4, dimnames=list(NULL, c("a", "b", "c", "d"))))

    0热度

    2回答

    我使用大型数据集我的研究(4.72GB),我发现在R“bigmemory”包,理应处理大型数据集(高达10GB的范围内)大csv文件。然而,当我使用read.big.matrix读取csv文件,我得到以下错误: > x <- read.big.matrix("x.csv", type = "integer", header=TRUE, backingfile="file.bin", descrip

    0热度

    2回答

    我试图创建一个从Rcpp中的big.matrix对象中提取列的函数(以便在将结果带入R之前可以在cpp中分析它) ,但我无法弄清楚如何让它识别NA(它们现在呈现为-2147483648 - 如下面我最小的例子所示)。如果我能从Rcpp直接访问函数GetMatrixCols(src/bigmemory.cpp),那就更好了,但我还没有找到一种方法来实现这一点。 #include <Rcpp.h>

    0热度

    1回答

    我想从Windows机器上的parLapply函数访问big.matrix(不支持文件)。但是,调用big.matrix时R会崩溃 - “R for Windows前端停止工作”。 我需要先附加big.matrix吗?我该怎么做呢?任何帮助,高度赞赏。 require(parallel) require(bigmemory) data <- matrix(rnorm(10^8),ncol=1

    0热度

    1回答

    我有一个大小约为5.3 GB的大型数据集,并且我在R中使用bigmemory()存储了数据。请让我知道如何将XGBOOST应用于此类数据?

    0热度

    1回答

    我正在处理大型数据集。我可以使用read.table命令阅读其中的一些命令,但使用参数fill=TRUE,因为这些数据集有一些代表NA的空格。 现在,我有一个高达35GB的数据库,所以通常的read.table命令是无用的,所以我发现read.big.matrix函数进入bigmemory包。问题是它返回以下错误: "Dimension mismatch between header row an

    0热度

    1回答

    我试图使用bigmemory R中计算距离矩阵超过100,00,000(粗略估计)行16列 数据的一小部分看起来像这样 list1 <- data.frame(longitude = c(80.15998, 72.89125, 77.65032, 77.60599, 72.88120, 76.65460, 72.88232, 77.49186,

    14热度

    2回答

    我无法找到任何功能或包在R.计算的bigmatrix(从library(bigmemory))零空间或(QR分解)例如: library(bigmemory) a <- big.matrix(1000000, 1000, type='double', init=0) 我尝试了以下,但得到了显示的错误。我如何找到bigmemory对象的空位? a.qr <- Matrix::qr(a) #

    1热度

    1回答

    我遇到内存问题,R给出Can not allocate vector of size XX Gb错误消息。我有一堆日常文件(12784天),以netcdf格式给出1305x378(经纬度)网格的海面温度。这样每天就可以得到493290分,在移除新地区(陆地点)时减少到约245000。 我的最终目标是从日常文件中为任何245000点建立一个时间序列,并找出每个点的时间趋势。我的想法是建立一个每行一个