MAX 能跑机器学习吗?

2021-10-30 21:59:32 +08:00
 sickoo

没有用过 mac ,如题,好奇这么强大的芯片,能本地跑 ml 吗?

2963 次点击
所在节点    Apple
14 条回复
reallynyn
2021-10-30 23:40:03 +08:00
大部分 ml 框架支持的都是 cuda ,max 刚出支持的肯定不多,最终能不能达到 romc 的普及度都是个问题。。
icyalala
2021-10-30 23:49:30 +08:00
苹果有自己的 ML API ,要说能不能跑 ML ,那当然能跑,但肯定不是你期待的东西。
wyfyw
2021-10-31 00:08:23 +08:00
reinpal
2021-10-31 02:35:27 +08:00
我干这个的,有点发言权,前两天 14 寸 32g 到手,跑了个 longformer 试试,pytorch 不识别 m1 的 gpu 所以用 cpu 跑的,的确能跑起来。跑的过程中还能干点别的(指摸鱼),但是就是很慢,3 个多小时跑一个 epoch

结论:对 DL 来说不太可以,小一点的 model 可以跑 inference ,不能从头训练,如果能接受这个时长,勉强算是可以跑,但是还是不是很推荐。如果跑的是那种传统的 ML 和相对而言小一点的数据集应该是可以的,毕竟不吃 gpu ,吃 cpu 和内存。如果你的数据集好几 g ,那还是老老实实上服务器或者 colab 吧
reinpal
2021-10-31 02:39:24 +08:00
@reinpal #4 啊忘了说,我是 m1 pro ,不是 max
houshuu
2021-10-31 09:46:24 +08:00
之后应该会支持起来吧, 不过干机器学习的从学生时代应该就是服务器上跑了, 机器也就是编辑下代码的工作.
sickoo
2021-10-31 11:26:58 +08:00
@reinpal 了解
nuevepicos
2021-10-31 12:57:13 +08:00
Tensorflow 支持苹果的 ML comupte (类似 Nvidia 的 cuDNN )

但 Pytorch 应该不行

现在好像用后者的更多?
dddd1007
2021-10-31 13:50:34 +08:00
用 cmdstan 做 MCMC 模拟的时候,我的 M1 明显比 i9-2080Ti 台式机跑得更快。
stan 社区也有几个用户有相同的报告。
sickoo
2021-10-31 13:51:46 +08:00
@dddd1007 估计后期生态支撑起来,不容小觑
dddd1007
2021-10-31 14:03:03 +08:00
@sickoo 等有空的时候加入进去打打下手
crystone
2021-10-31 15:02:31 +08:00
就看社区的发展了,如果好的话是可以做起来的,吧
fl2d
2021-10-31 15:26:13 +08:00
曾经炒过一波 swift 的机器学习框架,苹果应该给这个社区捐点钱啊。
zinplus
2021-11-01 03:52:43 +08:00
昨天配置好后,新 16 寸丐版跑 tensorflow 使用 metal 框架,比我之前的 17 年 mbp i5 纯 cpu 训练,要快 60 倍。
另外 tensorflow 直接安装会报错,研究了一下后发现用 miniforge 来虚拟环境还是挺方便直接的。有需要的话我可以发一下我配置好的 requirement.yml

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/811800

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX