Spark主内存要求是否与处理数据的大小有关?
Spark驱动程序和Spark工作程序/执行程序直接处理已处理的数据(并执行应用程序代码),因此它们的内存需求可以链接到已处理数据的大小.但Spark主机是否受数据大小的影响?在我看来,它不是,因为它只管理Spark工作者,并且不直接使用数据本身.