Does Spark do UnionAll in parallel?
我得到了 10 个具有相同架构的
所以,如果我运行:
1 |
Spark 会并行计算所有这些
而且,当我们在这里时 - 有没有比我上面列出的更优雅的方法来在多个
总的来说,Spark 是一个分布式计算系统。每个操作本身都由一堆并行处理的任务组成。所以一般来说你不必担心两个操作是否可以并行运行。无论如何,集群资源都会得到很好的利用。
我得到了 10 个具有相同架构的
所以,如果我运行:
1 |
Spark 会并行计算所有这些
而且,当我们在这里时 - 有没有比我上面列出的更优雅的方法来在多个
总的来说,Spark 是一个分布式计算系统。每个操作本身都由一堆并行处理的任务组成。所以一般来说你不必担心两个操作是否可以并行运行。无论如何,集群资源都会得到很好的利用。