spark-env.sh 没有
答案:2 悬赏:80
解决时间 2021-02-22 03:51
- 提问者网友:他是我的あ男人
- 2021-02-21 19:15
spark-env.sh 没有
最佳答案
- 二级知识专家网友:时光不老我们不分离
- 2021-02-21 19:58
进入conf子目录,将spark-env.sh-template 重命名或复制一份为spark-env.sh,然后添加自己所需的参数
全部回答
- 1楼网友:夢想黑洞
- 2021-02-21 21:08
还没有与python 3,如果工作,你要使用python api,你还需要一个python间preter(版本2.6或更高版本)。
我运行时,有同样的问题 ipython的= 1 ./pyspark 。
好吧速战速决
修改 vim pyspark 和变更 pyspark_driver_python =“ipython的”行
pyspark_driver_python =“ipython2”
这就是它。
如果您要检查,其中剂量 ipython的点,
键入这ipython的端子和我敢打赌,那将是
/library/frameworks/python.framework/versions/3.4/bin/ipython
我要举报
如以上问答内容为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯