做项目时候发现程序的时间都用在了 count()、 collect()、 distinct() 这样的 action 操作上, 另外我查了一下它最初的设计论文:
Resilient Distributed Datasets : A Fault-Tolerant Abstraction for In-Memory Cluster Computing 这篇文章,
里面有写: RDDs do not need to be materialized at all times. Instead, an RDD has enough information about how it was derived form other datasets 。
是不是说 如果不执行 action 操作,那么其实系统并不会 “真正地”将 RDD 进行转换, 而是记录下转换的顺序与方法, 在执行 action 操作时 会统一执行? 这样如果有了错误的数据产生, Spark 可以及时 重新生成正确的 RDD ,来保证容错性呢?
因为涉及到 Spark 程序的设计,想请教一下大家,谢谢
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.