作者:长颈己 | 来源:互联网 | 2022-10-26 18:39
我的Spark作业因YARN错误而失败Container killed by YARN for exceeding memory limits 10.0 GB of 10 GB physical memory used
。
凭直觉,我将核心数从减少5
到1
,并且作业成功完成。
我没有增加,executor-memory
因为这10g
是我的YARN群集的最大值。
我只是想确认我的直觉。减少executor-cores
消费数量会减少executor-memory
吗?如果是这样,为什么?