2017-06-20 90 views
-1

当我们尝试将数据插入Hive表时,存在以下问题。尝试将数据保存到数据框的Hive表时出错

作业已中止由于阶段失败:在阶段65.0(TID 987, tnblf585.test.sprint.com)丢失任务5.3:任务5阶段65.0失败4次 ,最近失败的java.lang .ArrayIndexOutOfBoundsException: 45在 org.apache.spark.sql.catalyst.expressions.GenericMutableRow.genericGet(rows.scala:254) 在 org.apache.spark.sql.catalyst.expressions.BaseGenericInternalRow $ class.getAs( rows.scala:35) at org.apache.spark.sql.catalyst.expressions.BaseGenericInternalRow $ class.isNullAt(rows.scala:36) at org.apache .spark.sql.catalyst.expressions.GenericMutableRow.isNullAt(rows.scala:248) at org.apache.spark.sql.hive.execution.InsertIntoHiveTable $$ anonfun $ org $ apache $ spark $ sql $ hive $ execution $ InsertIntoHiveTable $$ writeToFile $ 1 $ 1.apply(InsertIntoHiveTable.scala:107) at org.apache.spark.sql.hive.execution.InsertIntoHiveTable $$ anonfun $ org $ apache $ spark $ sql $ hive $ execution $ InsertIntoHiveTable $ $ writeToFile $ 1 $ 1.apply(InsertIntoHiveTable.scala:104) at scala.collection.Iterator $ class.foreach(Iterator.scala:727)at scala.collection.AbstractIterator.foreach(Iterator.scala:1157)at org .apache.spark.sql.hive.execution.InsertIntoHiveTable.org $ apache $ spark $ sql $ hive $ execution $ InsertIntoHiveTable $$ writeToFile $ 1(InsertIntoHiveTable.scala:104) at org.apache.spark.sql.hive.execution.InsertIntoHiveTable $$ anonfun $ saveAsHiveFile $ 3.apply(InsertIntoHiveTable.scala:84) at org.apache.spark.sql.hive.execution.InsertIntoHiveTable $$ anonfun $ saveAsHiveFile $ 3.apply(InsertIntoHiveTable.scala:84) at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:66) at org.apache.spark.scheduler.Task.run(Task.scala:89)在 org.apache.spark.executor.Executor $ TaskRunner.run(Executor.scala:227) 在 java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) 在 java.util.concurrent中。 ThreadPoolExecutor $ Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:745)

驱动程序堆栈跟踪:

+0

目前还不清楚什么,你如何试图插入配置单元表。在日志中抛出一个arrayoutofboundsexception。它看起来你的数据可能不一致。检查你的数据。 – Kris

+0

你不要求任何具体的东西,你不提供源代码,你不提供示例数据,你不提供目标表结构,你不提Spark/Hive版本。你真的希望得到答案?!? –

回答

0

我已经想通了,在数据帧和蜂巢表中的列名的一个不一样的,列名修正后它已加载正确

相关问题