Spark Parquet Loader: Reduce number of jobs involved in listing a dataframe's files
我正在通过
将 parquet 数据加载到数据框中
1 | spark.read.parquet('hdfs:///path/goes/here/...') |
由于 parquet 分区,该路径中有大约 50k 个文件。当我运行该命令时,spark 会生成数十个小作业,这些小作业总体上需要几分钟才能完成。以下是 spark UI 中作业的外观:
如您所见,虽然每个作业有大约 2100 个任务,但它们执行速度很快,大约 2 秒。启动这么多"迷你作业"效率低下,并导致此文件列出步骤大约需要 10 分钟(其中集群资源大部分处于空闲状态,并且集群主要处理散乱的任务或管理作业/任务的开销)。
如何将这些任务整合到更少的工作中,每个工作都有更多的任务?
也适用于 pyspark 的解决方案的奖励积分。
我正在通过 pyspark 在 hadoop 2.8.3 上运行 spark 2.2.1。
我相信您遇到了一个错误,我的一位前同事已为此提交了票证并打开了拉取请求。你可以在这里查看。如果它适合您的问题,那么您最好的选择可能是对问题进行投票并在邮件列表中对此发表一些意见。
您可能想要做的是以适合您工作的方式调整
您可以在此处和此处查看配置密钥的使用方式。为了完整起见,我将在这里分享相关的片段。
1 2 3 4 5 6 | // Short-circuits parallel listing when serial listing is likely to be faster. if (paths.size <= sparkSession.sessionState.conf.parallelPartitionDiscoveryThreshold) { return paths.map { path => (path, listLeafFiles(path, hadoopConf, filter, Some(sparkSession))) } } |
1 2 3 | // Set the number of parallelism to prevent following file listing from generating many tasks // in case of large #defaultParallelism. val numParallelism = Math.min(paths.size, parallelPartitionDiscoveryParallelism) |
此配置的默认值是
在您的情况下,我会说您可能想要做的是设置阈值,以便进程在不产生并行作业的情况下运行。
笔记
链接的来源来自撰写本文时可用的最新标记版本 2.3.0。
相对于对象存储,即使列出和调用 getFileStatus 也非常昂贵,并且由于这是在分区期间完成的,因此可以大大扩展工作。
与