2017-09-13 159 views
-1
1.sqoop export --connect jdbc:mysql://localhost:3306/hduser_db --username hduser 
    --password hduser --table export --export-dir /user/hive/warehouse/three -- 
fields-terminated-by ',' 

17/09/13 14:10:45 INFO mapreduce.Job: map 0% reduce 0% 
17/09/13 14:10:50 INFO mapreduce.Job: map 100% reduce 0% 
17/09/13 14:10:51 INFO mapreduce.Job: Job job_1505199140014_0033 failed with 
state FAILED due to: Task failed task_1505199140014_0033_m_000000 
ob failed as tasks failed. failedMaps:1 failedReduces:0 

2.17/09/13 14:10:51 INFO mapreduce.Job: Counters: 8 

工作计数器 失败map任务= 1个 推出地图任务= 1 机架本地地图任务= 1周 在占用时隙(ms)的所有地图所用的总时间= 2947 占用插槽中所有缩减花费的总时间(ms)= 0 所有映射任务花费的总时间(ms)= 2947 所有映射任务花费的总核心毫秒数= 2947 所有映射占用的总兆字节毫秒数任务= 3017728 17/09/13 14:10:51警告mapreduce.Counters:Group FileSystemCounters组 org.apache.hadoop:是 弃用 17/09/13 14时10分51秒INFO mapreduce.ExportJobBase:在 14.8875小号 17/09/13 14时10分51秒WARN mapreduce.Counters转移0字节。 mapred.Task $ C 17/09/13 14:10:51信息mapreduce.ExportJobBase:导出0条记录。 17/09/13 14:10:51错误tool.ExportTool:导出期间出错: 导出作业失败! (org.apache.sqoop.tool.ExportTool.exportTable)上的org.apache.sqoop.mapreduce.ExportJobBase.runExport(ExportJobBase.java ) (ExportTool.java:80) at org.apache.sqoop.tool.ExportTool.run(ExportTool.java:99) at org.apache.sqoop.Sqoop.run(Sqoop.java:147) at org.apache .hadoop.util.ToolRunner.run(ToolRunner.java:70) at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:183) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:234 ) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243) at org.apache.sqoop.Sqoop.main(Sqoop.java:252)sqoop导出失败

回答

0

运行导出命令时- 下面的步骤必须小心。

  1. 源(HDFS数据)和目标(rdbms上的表)之间的数据类型,列名称应匹配。

  2. 我们应该指定--columns参数中的所有列名。

如:

sqoop出口--connect的jdbc:mysql的://本地主机:3306/hduser_db --username hduser --password hduser --table出口 --export-DIR/user/hive/warehouse/3 --fields-terminated-by',' --columns“column1,column2,....”;