spark 2.2.0 默认安装,啥都没动 python 2.7.9 ipython 5.4.1 运行 network_wordcount 例子。 跑 scala 脚本成功,但是运行 python 的例子,直接报错: Job aborted due to stage failure: Task 0 in stage 2.0 failed 1 times, most recent failure: Lost task 0.0 in stage 2.0 (TID 1, localhost, executor driver): java.lang.IllegalArgumentException: port out of range:459092027
自己去谷歌了一下,这个 bug 被提交过: https://issues.apache.org/jira/browse/SPARK-7688
但是被认为不是 bug,直接关掉了 怎么解决的没说。 有达人知道怎么搞么?
1
kex0916 2017-11-24 11:44:02 +08:00
没用过 python spark,看 7688 介绍说升级到 python 3.1.0 可以用的嘛
|
4
tttwww18 2017-11-24 18:23:29 +08:00
https://issues.apache.org/jira/browse/SPARK-3772 作为参考,设置 PYSPARK_PYTHON 试试呢
|