advice for big data architecture: mongodb + spark
我需要实现一个大数据存储+处理系统。
数据每天都在增加(大约每天最多5000万行),数据符合大约10个字段(日期,数字,文本,ID)的非常简单的JSON文档。
然后可以在线查询数据(如果可能),在文档的某些字段(日期范围查询,ID等)上进行任意分组。
我正在考虑使用MongoDB集群存储所有这些数据并为我需要查询的字段构建索引,然后在apache Spark集群中处理数据(主要是简单的聚合+排序)。也许使用Spark-jobserver在它周围构建一个rest-api。
我担心mongoDB扩展的可能性(即存储10b +行)和吞吐量(快速发送1b +值的行来处理spark)或者能够在如此大的数据库中维护索引。
相比之下,我考虑使用cassandra或hbase,我认为它更适合存储大型数据集,但在查询中提供的性能较低,如果我提供在线查询,我最终需要这些性能。
1 - mongodb + spark是这种用例的经过验证的堆栈吗?
2 - mongodb(存储+查询性能)可扩展性无限制?
提前致谢
如前所述,有许多NoSQL解决方案可以满足您的需求。我可以推荐MongoDB与Spark *一起使用,特别是如果你有大型MongoDB集群的操作经验。
有一篇关于将分析转化为MongoDB实时查询的白皮书。也许更有趣的是东方航空公司关于他们使用MongoDB和Spark的博客文章,以及它如何为每天16亿次航班搜索提供支持。
关于数据大小,然后在MongoDB中管理具有那么多数据的集群是很正常的。任何解决方案的性能部分都是快速向Spark发送1b +文档进行处理。并行和利用数据局部性是关键。此外,你的Spark算法需要利用这种并行性 - 大量数据的混乱是时间昂贵的。
- 免责声明:我是MongoDB Spark Connector的作者,并为MongoDB工作。
几乎任何NoSQL数据库都可以满足您存储数据时的需求。你是对的,MongoDB在查询数据时提供了一些额外的Hbase和Cassandra。但elasticsearch是高速存储和检索/查询数据(指标)的成熟解决方案。
以下是有关在Spark中使用elasticsearch的更多信息:
https://www.elastic.co/guide/en/elasticsearch/hadoop/master/spark.html
我实际上会使用完整的ELK堆栈。由于Kibana将允许您通过可视化功能(图表等)轻松浏览数据。
我打赌你已经有了Spark,所以我建议在同一台机器/集群上安装ELK堆栈来测试它是否适合你的需求。