2017-11-18 185 views
1

我已经安装了spark版本:spark-2.2.0-bin-hadoop2.7ipython不被识别为内部或外部命令(pyspark)

我使用Windows 10 OS

我的Java版本1.8.0_144

我已经把我的环境变量:

SPARK_HOME D:\spark-2.2.0-bin-hadoop2.7 

HADOOP_HOME D:\Hadoop (where I put bin\winutils.exe) 

PYSPARK_DRIVER_PYTHON ipython 

PYSPARK_DRIVER_PYTHON_OPTS notebook 

Path是D:\spark-2.2.0-bin-hadoop2.7\bin

当我启动pyspark从命令行我有这个错误:

ipython is not recognized as an internal or external command 

我也试过在jupyter中设置PYSPARK_DRIVER_PYTHON,但是它给了我同样的错误(未被识别为内部或外部命令)。

请帮忙吗?

+0

您确定在您的机器中安装了'jupyter'和'ipython'? – desertnaut

回答

0

在你的机器上搜索ipython应用程序,在我的情况下它是在“c:\ Anaconda3 \ Scripts”中。然后只需将该路径添加到PATH环境变量

相关问题