Hadoop 的 MapReduce 如何让数据变成全局?

2015-03-07 11:34:20 +08:00
 Valyrian

比如input文件的key是单词,value是单词出现的次数,现在要用MapReduce算每个单词的频率(其实就是一个Map…)。这个过程用MapReduce怎么搞?需要先数出所有单词的总次数,然后处理每一行都要用这个值。。

3781 次点击
所在节点    Hadoop
9 条回复
lcj2class
2015-03-07 12:53:30 +08:00
你可以这么搞,
在map阶段,使用counter API在累计单词出现总次数。
context.getCounter().increment(Integer.valueOf(value))
之后在reduce阶段,你可以直接取到这个counter
chaucerling
2015-03-07 12:56:28 +08:00
1.首先将任务拆分,发给map server
2.map server处理,输出类似
word 1
app 1
word 1
word 1
app 1
..
3.将map输出的结果发给reduce server
4.reduce server 统计,输出类似
word 3
app2
..
5.发给接受结果的服务器储存
ShiehShieh
2015-03-07 13:02:59 +08:00
map: 得到键值对,word:count.
Hadoop进行sort.
reduce: 将sorted的输入进行合并就可以了。
。。。好像就是一个典型的MapReduce的流程,不需要什么全局变量的好像。。。还是我理解错了楼主的意思?
Valyrian
2015-03-07 13:34:41 +08:00
@lcj2class

感谢,我试试

@chaucerling
@ShiehShieh

我可能没说清,不是算次数,是算频率=(次数/所有单词次数)
wzxjohn
2015-03-07 14:28:37 +08:00
你的问题不适合用 mr 。。。统计部分适合,但是计算频率部分不适合。
最好的方法是先用 mr 统计出总数,然后把总数作为常量直接丢到统计次数的 reducer 里面。这样两轮 mr 不需要额外处理可以完成。。。
monkeylyf
2015-03-07 14:50:41 +08:00
这个为什么要用mr来跑? 没有map逻辑没有reduce逻辑也没有并行逻辑
或者说是1tb的key/value 文件?
Valyrian
2015-03-07 23:53:44 +08:00
@wzxjohn
@monkeylyf

不要问我为什么。。学校作业
有一点reduce逻辑就是单词的次数是要加一下的
yuankui
2015-03-08 11:04:35 +08:00
这不就是 example 里面的 wordcount 例程吗??
monkeylyf
2015-03-11 01:00:33 +08:00
@Valyrian 你这个结果就是map做的统计 如果input里有重复的key 你就需要跑一下reducer就行了 如果没有重复的 直接local脚本走起了

凡是还是要问个为什么 如果二逼老师出这种题目你就喷他

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/175112

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX