我试图在Python 11上安装Apache Spark,并在7月11日发布中使用了pip install python命令。然而,尽管这种成功安装,我可以在Python shell中运行Apache Spark与pip安装不起作用
from pyspark import SparkContext
,我不能运行
pyspark
或火花提交访问pyspark外壳,
spark-submit.
两者的错误是'找不到指定的路径'。我在Windows上,怀疑我错过了JAR文件的火花。 pip安装不应该照顾这个吗?
请阅读http://blog.prabeeshk.com/blog/2015/04/07/self-contained-pyspark-application/ –