我已经把hive-site.xml
我spark/conf
目录,并配置它连接到thrift://<user>:9083
,我没有使用derby
我mysql-connector-jar
内蜂箱/ lib文件夹,还是每次我创建蜂巢表和存储数据的时候,所有的数据都存储在metastore_db
在我的项目目录而不是我的hdfs://<user>:9000/user/hive/warehouse
,所以如果我删除metastore_db数据丢失。 conf/hive-site.xml
Hive:为什么在我的项目文件夹中创建metastore_db?
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://saurab:3306/metastore_db?
createDatabaseIfNotExist=true</value>
<description>metadata is stored in a MySQL server</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>MySQL JDBC driver class</description>
</property>
<property>
<name>hive.aux.jars.path</name>
<value>/home/saurab/hadoopec/hive/lib/hive-serde-
2.1.1.jar</value>
</property>
<property>
<name>spark.sql.warehouse.dir</name>
<value>hdfs://saurab:9000/user/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://saurab:9083</value>
<description>URI for client to contact metastore
server</description>
</property>
This是我thriftserver log.Mysql服务器是running.So为什么它正在制造metastore_db和存储的数据在那里。
,所以我要补充/蜂巢/ conf目录/至$ SPARK_CLASSPATH ?这是好的 – Saurab
另外,我想知道spark是否实际读取'/ hive/conf/hive-site.xml'。它不只是读取'/ spark/conf/hive-site.xml'吗? – Saurab
https://pastebin.com/Lr8QJJRP这里是'hive/conf/hive-site.xml'。我还错过了什么? – Saurab