How to optimize Spark for writing large amounts of data to S3
我在 EMR 上使用 Apache Spark 进行了大量 ETL。
我对获得良好性能所需的大部分调整都相当满意,但我有一项工作似乎无法弄清楚。
基本上,我使用了大约 1 TB 的 parquet 数据 - 分布在 S3 中的数万个文件中 - 并添加了几列并将其写出,并按数据的日期属性之一进行分区 - 再次,parquet 格式在 S3 中。
我是这样跑的:
1 | spark-submit --conf spark.dynamicAllocation.enabled=true --num-executors 1149 --conf spark.driver.memoryOverhead=5120 --conf spark.executor.memoryOverhead=5120 --conf spark.driver.maxResultSize=2g --conf spark.sql.shuffle.partitions=1600 --conf spark.default.parallelism=1600 --executor-memory 19G --driver-memory 19G --executor-cores 3 --driver-cores 3 --class com.my.class path.to.jar <program args> |
集群的大小是根据输入数据集的大小动态确定的,num-executors、spark.sql.shuffle.partitions和spark.default.parallelism参数是根据输入数据集的大小来计算的集群。
代码大致是这样的:
1 2 3 4 5 6 7 8 9 | va df = (read from s3 and add a few columns like timestamp and source file name) val dfPartitioned = df.coalesce(numPartitions) val sqlDFProdDedup = spark.sql(s""" (query to dedup against prod data"""); sqlDFProdDedup.repartition($"partition_column") .write.partitionBy("partition_column") .mode(SaveMode.Append).parquet(outputPath) |
当我查看神经节图时,我得到一个巨大的资源峰值,而重复数据删除逻辑运行和一些数据洗牌,但数据的实际写入只使用了一小部分资源并运行了几个小时.
我不认为主要问题是分区倾斜,因为数据应该公平地分布在所有分区中。
分区列本质上是一个月中的一天,因此每个作业通常只有 5-20 个分区,具体取决于输入数据集的跨度。每个分区通常在 10-20 个 parquet 文件中包含大约 100 GB 的数据。
我正在设置 spark.sql.files.maxRecordsPerFile 来管理这些输出文件的大小。
所以,我最大的问题是:如何提高这里的性能?
简单地添加资源似乎没有多大帮助。
我已经尝试让执行器更大(以减少洗牌)并增加每个执行器的 CPU 数量,但这似乎并不重要。
提前致谢!
Zack,我有一个类似的用例,每天要处理的文件要多"n"倍。我将假设您按原样使用上面的代码并尝试提高整体工作的性能。以下是我的一些观察:
不确定
如果您要在写入之前重新分区,那么上面的合并可能根本没有好处,因为重新分区会打乱数据。
由于您声称要编写 10-20 个 parquet 文件,这意味着您在工作的最后一部分中仅使用 10-20 个内核进行编写,这是其缓慢的主要原因。根据 100 GB 的估计,镶木地板文件的范围从大约 5GB 到 10 GB,这真的很大,我怀疑除非他们使用 EMR 或类似的设备(如果读取,执行程序内存很大整个文件或溢出到磁盘),因为内存要求太高。我建议创建大约 1GB 的镶木地板文件以避免任何这些问题。
此外,如果您创建 1GB parquet 文件,您可能会将该过程加快 5 到 10 倍,因为您将使用更多的执行器/内核来并行编写它们。您实际上可以通过简单地使用默认分区编写数据帧来运行实验。
这让我明白了你真的不需要使用重新分区,因为你想 write.partitionBy("partition_date") 调用。您的
另一个重点是 Spark 惰性求值有时过于聪明。在您的情况下,它很可能只使用基于
另一个指针是尝试 ParallelGC 而不是 G1GC。对于像这样的用例,当您读取 1000 倍文件时,我注意到它的性能比 G1Gc 更好或不差。请试一试。
在我的工作负载中,我使用基于
我不确定
希望对您有所帮助。
查鲁
这里有一些优化以加快运行速度。
(1) 文件提交者 - 这是 Spark 将部分文件读取到 S3 存储桶的方式。每个操作都是不同的,并且将基于
1 | spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version 2 |
说明
这会将文件直接写入零件文件,或者最初将它们加载到临时文件并将它们复制到它们的最终状态零件文件中。
(2) 对于文件大小,您可以根据每条记录的平均字节数得出它。下面我计算每条记录的字节数以计算 1024 MB 的记录数。我会先尝试每个分区 1024MB,然后向上移动。
1 2 3 4 5 6 |
(3) [我还没有尝试过] EMR Committer - 如果您使用的是 EMR 5.19 或更高版本,因为您正在输出 Parquet。您可以将 Parquet 优化编写器设置为 TRUE。
1 |