JavaPairRDD<String, Map<String, String>> 结构的 RDD,input data 约在 1T 作用,使用常规的 reducebykey 的 excutor 内存会不够, 目前,spark.executor.memory 设置的 4G,准备继续往上加到 8G 再试, 这种情况下除了 加 executor.memory 还有其他 有效解决方式吗? 小弟 spark 菜鸡,希望各位大佬给点指导。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.