0
该命令适用于本地Linux精细错误而来自本地的Linux文件解压缩到HDFS
gzip -d omega_data_path_2016-08-10.csv.gz
我想解压缩与扩展名的文件.csv.gz到HDFS的位置。
我想下面的命令,我得到这个错误
[[email protected] localinputfiles]$ gzip -d omega_data_path_2016-08-10.csv.gz | hadoop dfs -put /user/cloudera/inputfiles/
gzip: omega_data_path_2016-08-10.csv already exists; do you wish to overwrite (y or n)? DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
put: `/user/cloudera/inputfiles/': No such file or directory
有人能帮助我解决这个问题?
有什么用-dc的?我可以使用gzip -c而不是gzip -dc吗? –
'-d'用于解压缩。 – franklinsijo
感谢您的回答。它帮助 –