首页 > 编程知识 正文

pyspark未找到命令

时间:2023-05-04 15:52:55 阅读:224183 作者:2841

遇到的问题:

在Window10下配置完Spark遇到了一个很烦心的问题,在Windows PowerShell下使用Pyspark,只能在当前目录下.pysark启动。
直接敲命令会提示系统找不到路径:

但我确实设置了环境变量:

解决办法:

后来发现是因为环境变量设置的顺序问题,原因是之前安装了Anaconda3并且环境变量设置在了Spark环境变量的前面,里面也安装了pyspark,由于没有依赖环境不能直接启动,直接就返回“系统找不到路径”的提示。上移Spark环境变量就可以解决。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。