疑问:spark对于迭代运算场景很有优势,那对于迭代不严重的计算场景呢?

2014-01-02 20:10:30 +08:00
 xiaochong
对于汇总n天的log这种扫一次或几次的非严重迭代运算的场景,spark相比于hadoop而言的性能是继续有优势、差不多还是差了?

还有就是除了文档里面机器学习的几个算法,大家在日常还有哪些比较合适的应用场景,以及集群的规模(cpu个数,内存数),希望大家分享。
6271 次点击
所在节点    Spark
2 条回复
Livid
2017-03-01 15:13:52 +08:00
扫 log 这种事情,如果数据量不大(<100G )的时候, Spark 不一定有传统工具快。
xiaochong
2017-03-01 16:42:43 +08:00
@Livid 嗯,现在扫 log 也不用 spark ,即使大数据量,因为 ETL 本身不太耗内存, spark 这种性能没优势,稳定性还可能差了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/95416

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX