Spark 中的 transformations 的操作(如 map、filter)是不是不会一直执行?

2016-04-24 11:12:15 +08:00
 anonymoustian

做项目时候发现程序的时间都用在了 count()、 collect()、 distinct() 这样的 action 操作上, 另外我查了一下它最初的设计论文:

Resilient Distributed Datasets : A Fault-Tolerant Abstraction for In-Memory Cluster Computing 这篇文章,

里面有写: RDDs do not need to be materialized at all times. Instead, an RDD has enough information about how it was derived form other datasets 。

是不是说 如果不执行 action 操作,那么其实系统并不会 “真正地”将 RDD 进行转换, 而是记录下转换的顺序与方法, 在执行 action 操作时 会统一执行? 这样如果有了错误的数据产生, Spark 可以及时 重新生成正确的 RDD ,来保证容错性呢?

因为涉及到 Spark 程序的设计,想请教一下大家,谢谢

2790 次点击
所在节点    Hadoop
3 条回复
weikey
2016-04-24 11:36:51 +08:00
是的
sleeperqp
2016-04-24 12:00:22 +08:00
是 借鉴了惰性计算~
alexapollo
2016-04-24 16:20:47 +08:00

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/274006

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX