我有一个问题。当我运行我的火花任务时,使用hive-jdbc在本地,我可以连接配置单元。但是当我在群集中运行它时火花提交,它失败了。如何spark2.0连接到配置单元-jdbc-1.1.0
异常线程 “main” 值java.sql.SQLException:无法建立连接为jdbc:hive2://172.16.28.99:10000/vdm_da_dev.db:必填字段 'client_protocol' 未设置!的结构:TOpenSessionReq(client_protocol:空,配置:{用途:数据库= vdm_da_dev.db})”
客户端是hive-jdbc-1.1.0-cdh5.6.0
,并且服务器hive-1.1.0-cdh5.6.0.
但火花是spark-2.0.0
,蜂房-JDBC在/opt/spark/jars
是hive-jdbc-1.2.1.spark2.jar
。
我与所有节点的hive-jdbc-1.1.0-cdh5.6.0.jar
,但还是错了更换。
我包具有相关性的项目,但在火花提交,它并没有使用它们。 我该怎么办它?
请,任何人都可以帮助我。非常感谢。
什么版本是蜂巢的客户端和服务器的蜂巢版本? – FaigB
配置单元客户端版本:hive-jdbc-1.1.0-cdh5.6.0; hive服务器版本:hive-jdbc-1.1.0-cdh5.6.0 一样!当把一个jar无火花任务,只需连接到配置单元,并在服务器中创建一个表,它的成功。 但是当我连接到火花任务中的配置单元时,也使用hive-jdbc,它失败了。 – user7135450