0
我复制从HDFS一些数据S3使用以下命令:复制到S3的位置使用DistCp使用命令
$ hadoop distcp -m 1 /user/hive/data/test/test_folder=2015_09_19_03_30 s3a://data/Test/buc/2015_09_19_03_30
2015_09_19_03_30
斗不存在进入S3。它将/user/hive/data/test/test_folder=2015_09_19_03_30
目录的数据成功复制到S3 2015_09_19_03_30
存储桶中,但是当我再次执行相同的命令时,它会在S3中创建另一个存储桶。
我希望这两个文件应该在同一个桶中。