data.table

    0热度

    2回答

    对于df我想在最后10秒内取值列的滚动总和,时间以秒为单位。数据帧非常大,所以使用dply :: complete不是一个选项(数百万个数据点,毫秒级别)。我更喜欢dplyr解决方案,但认为它可能与数据表left_join,只是不能使其工作。 df = data.frame(Row=c(1,2,3,4,5,6,7),Value=c(4,7,2,6,3,8,3),Time=c(10021,10023

    -1热度

    1回答

    我再次看到一些遗留R代码,试图读取用户的头脑。看起来他们正在使用Python风格,从而他们定义了一个空R矢量,然后使用for循环将结果附加到一个矢量。 library(data.table) dtable = read.table("path/filename.txt",header=TRUE,sep="\t",check.names=FALSE) 定义这个data.table后,这里是什么

    0热度

    3回答

    我的第一行是添加下列行的参考值(对于N列)。 数据 A B C D 3 5 1 2 1 4 5 3 2 2 2 4 3 1 3 1 4 3 1 2 计算如下: 3,是被添加的参考值,它是3应被添加到1,2,3和4中,类似地5是参考值 - 被加到4,2,1,3,然后1被参考值加到5,2,3,1等等直到n列。 1 + 3 4 + 5 5 + 1 3 + 2 2 + 3 2 + 5 2

    2热度

    1回答

    我想使用fread函数读取多个文件(csv)。但最后一行我有不必要的数据,我无法使用fread,因为它会抛出一个错误。 代码: library(data.table) fnames <- list.files("Path",pattern = "^.*Star.*.csv$",full=TRUE) read_data <- function(z){ dat <- fre

    4热度

    3回答

    我想从我自己的Java应用程序执行一个jar。 (不可能将这个jar导入到一个库中,然后启动该应用程序作为我自己的“启动器”的一个实例)。从我自己的Java应用程序执行jar ...我使用的是下一行: String [] cmd = new String [] {"java","-jar","myjar.jar"}; Process process = Runtime.getRuntime().

    2热度

    1回答

    library(data.table) library(lubridate) x1 <- c(20090101, "2009-01-02", "2009 01 03", "2009-1-4", "2009-1, 5", "Created on 2009 1 6", "200901 !!! 07") dt2 <- data.table(id = c(1,1,1,2,2,2,2)

    3热度

    1回答

    我不想使用setNames功能,但这样做的声明: iris2 <- data.table(iris) iris2[,.(value = mean(Sepal.Length)), by = "Species"] 例如,我想有名字:value和group。 PS: 这太疯狂了!使用agregate的费用为1200毫秒。 doint与data.table相同,现在花费30ms。就像我们放在.()内

    0热度

    1回答

    我想建立一个经纪商网络,因为我需要同时为多个用户提供服务。我发现我可以使用嵌入的代理并启动Java代码中的每个代理,或者下载完整的apache activemq分发并运行多个实例。 目前,我没有任何具体的理由使用嵌入式经纪人。但另一方面,我没有任何理由反对使用嵌入式中间商。你能否给我一个提示,说明使用嵌入式经纪人可能存在的真正弊端? 谢谢,干杯

    1热度

    1回答

    我有一个df,如: SampleID Chr Start End Strand Value 1: rep1 1 11001 12000 - 10 2: rep1 1 15000 20100 - 5 3: rep2 1 11070 12050 - 1 4: rep3 1 14950 20090 + 20 ... 而且我想加入共享相同chr和strand,并具有类

    0热度

    1回答

    我有这样 Date Rain Temp 1990-01-01 0.0 29.2 1990-03-03 0.0 30.4 1990-06-10 NA 25.2 1990-09-02 0.3 26.8 1991-01-04 0.1 31.2 1991-03-02 0.0 34.0 1991-06-01 5.4 27.1 1991-09-01 0.4 25.1 1