作者:张琇萍家云 | 来源:互联网 | 2023-09-04 18:25
本文由编程笔记#小编为大家整理,主要介绍了Spark运行架构章节遇到的问题相关的知识,希望对你有一定的参考价值。在spark中运行./spark-shell--master
本文由编程笔记#小编为大家整理,主要介绍了Spark运行架构章节遇到的问题相关的知识,希望对你有一定的参考价值。
在spark中运行./spark-shell --master YARN-client --num-executors 3 --executor-memory 1g是碰到如下的问题:
biaoshi
表示资源不足,可能是内存不足或者core不足,于是就将1g改为512m,运行成功
以spark-client运行时候查看hdfs时,以http://hadoop1:50070查看,发现多了一个.sparkStaging文件夹
以spark-client运行时碰到如下问题,是因为log server没有开启
解决办法:
修改mapred-site.xml和 yarn-site.xm
yarn-site.xml添加:
mapred-site.xml添加: