m3 max 128 的使用场景?

2023-12-05 08:23:59 +08:00
 qweruiop

在犹豫买 m3 64 的还是 128 的,现在一直在用 m1 max 64g 的。之前主要做一些计算的开发,各种语言都在用,当年才出的时候比较快。后来感觉就不行了,编译速度也比不上服务器了。。。现在发现从去年开始,基本上都是远程连到自己的服务器做开发了。。。m1 本地太慢了。。。

平时的场景,都是开一堆 idea 本地,pycharm 远程,clion 远程。最近 1 年,在搞 ai ,基本上全是 pycharm 远程。。。用的依赖基本上 mac 下一堆问题的,java/node 开发连 clickhouse 的 arm 的 docker 也一堆问题,想着赶紧开发模型赚钱重要,不想花时间去搞依赖,搞了也没啥用,最后也都是要部署到 linux 。

看了下,内存,大多数工作场景都用不满。

不想引战

求买过的 v 友说说,新出的 m3 max 准备下手了,主要 m1 太慢了,在开发方面(我不开虚拟机,本地跑了几个 db 的 docker ),不知道 128g 内存会比 64 有用吗?

6004 次点击
所在节点    Apple
47 条回复
BenX
2023-12-05 08:49:25 +08:00
M1 Max 64GB 刚升级 M3 Max 64GB 做开发够了,128GB 不本地跑模型感觉用处不大。
terrysnake
2023-12-05 08:50:48 +08:00
其实用不用得上 128 ,我觉得取决于未来有没有爆发式的新领域出现。
比如我的 16g m1 Pro ,基本不用于工作, 但最近 ai 画图井喷式出现,16g 就不够用了。
jorneyr
2023-12-05 08:56:59 +08:00
上预算能够买到的最高配,只要经济压力不大就好。
simpleisbest
2023-12-05 09:03:39 +08:00
反正是远程,没必要换 m3 m1 区别不大的
noahhhh
2023-12-05 09:05:33 +08:00
你这需求不是 MacBook Air 就够了,反正笔记本就是当个终端用。Linux 下部署训练成熟的多,干活没得选,除了一堆自媒体吹没听说谁用 Mac 搞 AI ,huggingface 上面 coreML 模型都没几个。
PureWhiteWu
2023-12-05 09:10:13 +08:00
同 M1 Max 转 M3 Max ,64G 转 64G 。
本来也是纠结要不要上 128G 来着,后来发现 64G 内存做普通开发( Rust )完全是够用的,所以还是停留在了 64G ,事实证明确实是够用了。
可预见的未来我不会从事大模型开发,对跑这玩意儿也不太感兴趣,所以最终决定不上 128G 。
我的想法是,如果在 M3Max 使用过程中 64G 跑满了,那么下一次更换 M5/M6 Max 的时候,我就上 128G 。
PureWhiteWu
2023-12-05 09:10:34 +08:00
另外,M1Max 转 M3Max 提升巨大,体验明显。
qweruiop
2023-12-05 09:18:41 +08:00
@BenX 谢谢
@terrysnake 嗯。。。明白
@noahhhh 确实是想这么干,之前买过 m2 air ,退了,开多一堆 ide ,就卡的要死。。。主要是最近,同事买的外星人编译代码 (c/python/java) 和打开 jetbrains 系 ide 的速度明显比 m1 max 观感上的快。感觉 apple 是不是走偏了,好好的 cpu 不去搞好点,搞 gpu ,但是业界都还不支持呢。。。搞的再好,部署到服务器的时候只有 linux ,谁会花功夫去帮他推动呢。。。
@jorneyr 主要是被同事最近的外星人刺激到了。。。
@PureWhiteWu 我在 linux 下,idea 的打开速度和编译速度都比 m1 max 快很多,m3 会好点吗?
merlinX
2023-12-05 09:27:43 +08:00
M1 Max32G 换了 M3 Max 128G ,主要本地可以跑 LLama 70B
mbooyn
2023-12-05 09:30:04 +08:00
在 V 站看到黄色、红色内存压力的帖子里面截图发当前绿色的内存压力
LevineChen
2023-12-05 09:51:13 +08:00
现在全远程 m1 max 也慢? 我现在 m1pro 16g, golang webstrom 全程本地开发, 乱七八糟各种客户端, 软件基本只开不关都没觉得卡过
coderwink
2023-12-05 09:51:44 +08:00
挺关心如何用 Ai 赚钱的
clemente
2023-12-05 09:58:31 +08:00
本地跑大模型
ShadowPower
2023-12-05 10:01:20 +08:00
给服务器再加一块显卡吧,比加在 Mac 上有用多了
qweruiop
2023-12-05 10:26:10 +08:00
@LevineChen 这个卡,理性的说当然不全是 m1 的锅嘛,我开 7 ,8 个 idea 家的窗口。。。但是,最近和同事的顶配外星人装 linux 比,打开项目/编译项目/运行项目的体验就非常明显有观感上的差异了。。。
PureWhiteWu
2023-12-05 10:44:38 +08:00
@qweruiop M3 Max goland 我的体验是秒开
iCruiser
2023-12-05 10:48:11 +08:00
以现在的 swap 用量和内存压力为基准,出现 swap / 内存压力接近 50% 就要考虑内存升级
omgr
2023-12-05 10:58:57 +08:00
关键是你觉的 M1 Pro 太慢了,那 M3 Max 怕也快不了多少吧,况且内存不是瓶颈。

不过呢,既然搞 AI 挣了不少,上满配管他呢,不然总会有念想。虽然光从依赖角度,该远程还是要远程(
43n5Z6GyW39943pj
2023-12-05 11:02:23 +08:00
哥们技术栈实力这么雄厚
wclebb
2023-12-05 11:09:17 +08:00
我是买了 M3 Max 128G ,和你不一样的是,我是设计兼渲染的。所以基本上就是预算上选 内存最大。
恰好对最近的 AI 和模型也有兴趣,想本地跑跑图或文字看看。

LLaMa 70B 好像在 110G 左右,128G 恰好也在能跑的范围内。
最近听说清华大学 SDXL 模型,M1 跑图原本一分钟,缩短到几秒,跟 2080Ti 差不多的级别。

所以 AI 在 Mac 方面也是在追赶上去,但短期内可能没这么快。
我也是从 宣布 OCtane he Redshift 支持 macOS Metal 开始,一直等了跳票很久才终于用上 Redshift he OCtane 。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/997644

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX