如何测试写好的 hadoop job

2014-10-17 06:16:01 +08:00
 bbx
就想知道大家都如何测试的?
比如平常写好了一个pipeline,跑一次几个小时,为了避免逻辑错误之类的,都如何测试呢?
目前,我就自己写的一个driver,然后本地测。
4160 次点击
所在节点    Hadoop
8 条回复
monkeylyf
2014-10-17 07:03:09 +08:00
如果是用Java来调用Native API,个人现在的做法是把mapreduce写的尽量是纯函数调用而尽量避免mapper或者reducer里定义任何具体的逻辑. 这样外调函数可以用JUnit来测, Mapper/Reducer可以用MRUnit
总之是非常蛋疼的事情。。而且如果input数据比较脏的话一切皆有可能。。
bbx
2014-10-17 07:10:56 +08:00
@monkeylyf 你的做法也是我们组大部分其他人的做法. 但是有的时候想要测试一个pipeline的话,有很多个mr job,需要一个一个的运行,unit test总觉得不够好。
mrunit没试过,不知道真正用起来如何
monkeylyf
2014-10-17 07:14:59 +08:00
@bbx 做end-to-end unit test. 我自己写过脚本把这个pipeline的每个component都串起来然后测 这个脚本我自己写了半天 不知道有没有现成的工具 想想就蛋疼阿。。。
wecoders
2014-10-17 08:25:48 +08:00
使用小数据量进行测试
bbx
2014-10-17 08:35:24 +08:00
@wecoders ...这谁不知道..
bbx
2014-10-17 08:36:45 +08:00
@monkeylyf 貌似没有现成得。不过如果pipeline非常大,确实非常蛋疼。。
monkeylyf
2014-10-17 12:08:26 +08:00
@bbx 私以为这种工作量比写这个pipeline还要大 如果抽象出来可以给公司级别的 提供testing framework 说不定是个好主意和机会噢
sqrabs
2014-10-18 21:35:26 +08:00
都是写python代码通过hadoop streaming跑job,因为streaming是用stdin、stdout跟hadoop通信的,测试起来就直接通过stdin、stdout看输入输出就好,上层再封一层薄框架就更方便了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/139450

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX