我跟随了Spark的所有环境变量和安装指令。现在,当我运行pyspark
,我得到以下错误:Spark安装问题:实例化org.apache.spark.sql.hive.HiveSessionStateBuilder时出错
pyspark.sql.utils.IllegalArgumentException: u"Error while instantiating 'org.apache.spark.sql.hive.HiveSessionStateBuilder':"
我已经加了PATH,HADOOP_HOME,SPARK_HOME,与winutil.exe文件一起。也试过在网络上发布的解决方案之一,以上错误说要更改这样的权限
C:\winutils\bin>winutils.exe chmod 777 \tmp\hive
没有工作。
正如你在上面看到的那样,spark会启动,但没有其他的工作。见下面当我输入下面的命令:
缺少什么我在这里?
经过5个小时的搜索!找到了!!!您只需连接到VPN,然后在winutils.exe \ tmp \ hive中更改权限,如下所示:https://stackoverflow.com/questions/42784127/permission-denied-tmp-hive-in- sparklyr –