我已经安装了spark。而且,我可以进入我的spark版本中的bin
文件夹,并运行./spark-shell
并且它可以正常运行。我使用pyspark的路径是什么?
但是,由于某种原因,我无法启动pyspark
和任何子模块。
因此,我进入bin
并启动./pyspark
,它告诉我我的路径不正确。
我对PYSPARK_PYTHON
的当前路径与我从中运行pyspark
可执行脚本的位置相同。
PYSPARK_PYTHON
的正确路径是什么?它不应该是导致火花版本的bin
文件夹中名为pyspark
的可执行脚本的路径吗?
这就是我现在的路径,但它告诉我env: <full PYSPARK_PYTHON path> no such file or directory
。谢谢。