关于准实时流数据处理问题

2020-05-05 16:45:10 +08:00
 alexfarm

场景:生产上有很多客服和用户的会话数据,上游系统通过 kafka 给到我们,我们会对数据做些处理便于运营人员查询会话数据。 实时性:生产 30 分钟后,运营能查询到数据即可,这应该算个准实时场景吧。 问题:其中一个就是调用机器学习模型产出一些标签,目前的处理方式是单通对话同步请求模型得到结果再持久化。算法工程师说并发高的时候离线模型压力比较大,希望数据能平稳点请求模型。 现在就是几个方案,因为上游数据是从 kafka 消费到的,要么控制好消费者的数量,每次请求都同步等待,但感觉比较挫且不易扩展。或者就是用流数据计算框架,但是没什么实战经验。想问问大家有没有什么好的方案。

2562 次点击
所在节点    程序员
15 条回复
MinQ
2020-05-05 17:26:12 +08:00
batch 呗,比如数据每 10s 且每 100 个一起输入模型
alexfarm
2020-05-05 20:15:55 +08:00
@MinQ 10 秒的时间窗口不大好控制 batch size 啊。而且这个有点 spark streaming 的意思,是不是可以用这个去实现?
bigmercu
2020-05-05 21:47:29 +08:00
可以考虑使用 structured streaming,参考
https://spark.apache.org/docs/latest/structured-streaming-programming-guide.html#creating-streaming-dataframes-and-streaming-datasets
Rate Source
应该可以实现控制消费数量或时间。
MinQ
2020-05-05 23:35:25 +08:00
@alexfarm 时间到了去取,每次取前 100 个,不够的话全部取出
MinQ
2020-05-05 23:37:26 +08:00
@alexfarm 本质上就是借鉴了消息队列的削峰填谷的用处
tairan2006
2020-05-06 00:59:50 +08:00
Spark 就行
alexfarm
2020-05-06 11:15:18 +08:00
@tairan2006 就是感觉没有很多计算的工作,用 spark 有点怪怪的
alexfarm
2020-05-06 11:16:09 +08:00
@MinQ 一开始也是这样设计的,但是请求时候是同步等待的,等下游模型处理完了再去取一些数据
MinQ
2020-05-06 11:35:15 +08:00
所以你这个是有两个模型,第一个模型会先调用第二个模型,然后等第二个模型处理完了第一个模型才能得到输入所需要的数据?
alexfarm
2020-05-06 12:57:35 +08:00
@MinQ 两个模型不相关的,之所以同步等待,还是想匹配上模型处理的速度,不然会堆积许多的请求
MinQ
2020-05-06 14:25:17 +08:00
@alexfarm 那为啥不完全设计成异步的形式,同步等待难道性能不是取决于最慢的那个模型,不是会堆积更多的请求?
alexfarm
2020-05-06 15:35:30 +08:00
@MinQ 这样这些数据是堆积在消息系统中的。如果异步的话,算法前面没有缓冲的地方,应该自身的线程池满了就挂了
owenliang
2020-05-06 16:49:58 +08:00
flink,window 。
MinQ
2020-05-06 19:41:05 +08:00
@alexfarm 不明白,消息队列本身不就是缓冲么?
alexfarm
2020-05-06 22:44:50 +08:00
@MinQ 我们是中间层,消费消息队列里的数据做一次处理,然后再调用算法层的,算法层之前没有消息队列做缓存的。我说的同步或者异步是中间层调用算法层的。本身生产数据和中间层已经通过消息队列解耦了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/668693

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX