hadoop or spark 大数据去重(10 亿)

2018-07-30 10:03:38 +08:00
 engineer9

现有一些社交数据如下,

id from to
1   A   B
2   A   C
3   B   A
4   C   A

去重复后如下,

id from to
1   A   B
2   A   C

尝试的解决方案:
1、采用 bloomfilter 去重,由于 bloomfilter 本身算法问题,会丢失一些数据;
2、使用数据库查询然后写入到新表,速度有点慢。
3、使用 BerkeleyDB ?
4、使用 hadoop 或者 spark 解决,网上找到的方式几乎都是使用 group by 或者 distinct 但这并不适合我这个场景,如何解决呢?
头大。。。新手上路。。。

6915 次点击
所在节点    Hadoop
21 条回复
kavana
2018-07-31 11:54:51 +08:00
hadoop or spark 大数据去重,收藏待用

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/475230

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX