我想知道是否有办法连接unix文本文件在一起更快 比运行cat
?什么是捕捉多个文件的最快方法?
这是我面临的问题。我正在处理一个文本文件〜100G的字符串,大小为 。我试图通过将文件分成几百个小文件并并行处理它们来改善运行时间。最后,我将所得到的 文件依次整理在一起。文件读/写时间本身需要几个小时。我 会想找到一种方法,以改善以下:
cat file1 file2 file3 ... fileN >> newBigFile
这就需要双倍的磁盘空间为
file1
...fileN
占据了100G,并 然后newBigFile
另需100Gb的,然后file1
。 ..fileN
得到 去除的数据已经在
file1
...fileN
,做cat >>
即被读 ,写的时候我真正需要的是为几百个文件到 重新出现1个文件...
。 – 2010-11-01 19:31:11
我不知道我在说什么,但有可能操纵文件记录或什么?由于我需要做的不是复制数据,而是将多个文件串在一起回到1? – Wing 2010-11-01 19:37:52