微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何在 conda 环境中设置 pyspark?

如何解决如何在 conda 环境中设置 pyspark?

这是我运行的所有命令(以相同的顺序):

conda create --name python_db python
conda activate python_db
conda install python
conda install pyspark

然后当我运行 pyspark 时,出现以下错误

Missing Python executable 'python3',defaulting to 'C:\Users\user\Anaconda3\envs\python_db\Scripts\..' 
for SPARK_HOME environment variable. Please install Python or specify the correct Python executable in 
PYSPARK_DRIVER_PYTHON or PYSPARK_PYTHON environment variable to detect SPARK_HOME safely.

我该如何解决问题?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。