研究过机器学习的 xdm,求提供一个优化的思路

2022-12-27 09:26:18 +08:00
 passion23

背景如下

超大规模(几万亿)稀疏样本拆分成几十万 /上百万的规模进行聚类,现在使用的是 Python Sklearn 库里的 MiniBatchKMeans ,据说还是达不到业务要求

已知:现有方案只有单机场景,应该只能在 Sklearn 的基础上优化

我的任务是要比库的方法有性能提升,看了几天源码,没有什么思路...达不到性能提升的话,这工作应该是悬了

有没有优化过这一块的 xd 提供一点想法?

1396 次点击
所在节点    问与答
10 条回复
paopjian
2022-12-27 09:50:20 +08:00
几万亿的数据还是单机,这得用 CPU 跑好久吧,看着就麻烦
winglight2016
2022-12-27 10:30:32 +08:00
这么大数据量不是很容易搞吗? KNN 、SVM 一个个试过去啊,或者直接 pycaret 自动优化一把,没有比这个更轻松的工作了呀
zooo
2022-12-27 10:33:11 +08:00
找 GPU 跑
ifzzzh
2022-12-27 10:36:08 +08:00
先降维?或者用 LSH 近似聚类?
LaurelHarmon
2022-12-27 10:41:25 +08:00
好好做下特征工程
jaredyam
2022-12-27 10:46:25 +08:00
你全程没提过特征处理的步骤,直接塞?建议从数据入手,没人要求你必须和一个算法死磕吧?
lookStupiToForce
2022-12-27 10:48:31 +08:00
稀疏矩阵不搞特征工程等于自己给自己下降头喂屎
shoumu
2022-12-27 10:56:07 +08:00
几万亿拆分这一步是怎么做的?
qzwmjv
2022-12-27 11:30:03 +08:00
先挑点特征预聚类,这个量,真的不上分布式么,单机跑到猴年马月
governcoco
2022-12-27 11:41:08 +08:00
你先清理一下数据吧,把没有意义的特征或者有问题的数据删一下。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/904871

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX