我正在使用AWS到COPY
从我的S3存储桶到我的Redshift群集中的表的日志文件。每个文件大约有100MB,我没有'gziped'
。我现在有600个这样的文件,并且仍在增长。我的群集有2个dc1.large
计算节点和一个领导节点。将文件从s3复制到红移需要很长时间
问题是,COPY
手术时间过大,至少40分钟。加速它的最佳方法是什么?
1)获得更多节点ou是一个更好的节点机器? 2)如果我gzip的文件,它会真的很重要的方面COPY
手术时间增益?
3)这里有一些设计模式有帮助吗?
,谢谢,我会尽量回来的结果。 –
花了20分钟4节点和gziped文件。 –