Spark运行任务 文件 /etc/hadoop/conf.cloudera.yarn/topology.py 报错解决

执行Spark任务的时候,之前一直运行正常,突然就报错了。不知道原因,开始先从程序日志排查解决。

看日志在调用一个python脚本是发生了错误,

ExitCodeException exitCode=1:   File "/etc/hadoop/conf.cloudera.yarn/topology.py", line 43
    print default_rack

从错误上看感觉像是python版本错误导致。环境是CDH5.7,默认依赖python2. 于是看一下python版本。

[root@cdh188 etl-data-analysis]# python --version
Python 3.6.1 :: Anaconda 4.4.0 (64-bit)

果然版本不对了,猜测是哪位同学不小心把python运行环境更改了。影响到了程序的运行。

经验证,把python改回2.6后,程序即运行正常。

猜你喜欢

转载自blog.csdn.net/longyangaaoo/article/details/89451135