m3 max 128 的使用场景?

352 天前
 qweruiop

在犹豫买 m3 64 的还是 128 的,现在一直在用 m1 max 64g 的。之前主要做一些计算的开发,各种语言都在用,当年才出的时候比较快。后来感觉就不行了,编译速度也比不上服务器了。。。现在发现从去年开始,基本上都是远程连到自己的服务器做开发了。。。m1 本地太慢了。。。

平时的场景,都是开一堆 idea 本地,pycharm 远程,clion 远程。最近 1 年,在搞 ai ,基本上全是 pycharm 远程。。。用的依赖基本上 mac 下一堆问题的,java/node 开发连 clickhouse 的 arm 的 docker 也一堆问题,想着赶紧开发模型赚钱重要,不想花时间去搞依赖,搞了也没啥用,最后也都是要部署到 linux 。

看了下,内存,大多数工作场景都用不满。

不想引战

求买过的 v 友说说,新出的 m3 max 准备下手了,主要 m1 太慢了,在开发方面(我不开虚拟机,本地跑了几个 db 的 docker ),不知道 128g 内存会比 64 有用吗?

5900 次点击
所在节点    Apple
47 条回复
BenX
352 天前
M1 Max 64GB 刚升级 M3 Max 64GB 做开发够了,128GB 不本地跑模型感觉用处不大。
terrysnake
352 天前
其实用不用得上 128 ,我觉得取决于未来有没有爆发式的新领域出现。
比如我的 16g m1 Pro ,基本不用于工作, 但最近 ai 画图井喷式出现,16g 就不够用了。
jorneyr
352 天前
上预算能够买到的最高配,只要经济压力不大就好。
simpleisbest
352 天前
反正是远程,没必要换 m3 m1 区别不大的
noahhhh
352 天前
你这需求不是 MacBook Air 就够了,反正笔记本就是当个终端用。Linux 下部署训练成熟的多,干活没得选,除了一堆自媒体吹没听说谁用 Mac 搞 AI ,huggingface 上面 coreML 模型都没几个。
PureWhiteWu
352 天前
同 M1 Max 转 M3 Max ,64G 转 64G 。
本来也是纠结要不要上 128G 来着,后来发现 64G 内存做普通开发( Rust )完全是够用的,所以还是停留在了 64G ,事实证明确实是够用了。
可预见的未来我不会从事大模型开发,对跑这玩意儿也不太感兴趣,所以最终决定不上 128G 。
我的想法是,如果在 M3Max 使用过程中 64G 跑满了,那么下一次更换 M5/M6 Max 的时候,我就上 128G 。
PureWhiteWu
352 天前
另外,M1Max 转 M3Max 提升巨大,体验明显。
qweruiop
352 天前
@BenX 谢谢
@terrysnake 嗯。。。明白
@noahhhh 确实是想这么干,之前买过 m2 air ,退了,开多一堆 ide ,就卡的要死。。。主要是最近,同事买的外星人编译代码 (c/python/java) 和打开 jetbrains 系 ide 的速度明显比 m1 max 观感上的快。感觉 apple 是不是走偏了,好好的 cpu 不去搞好点,搞 gpu ,但是业界都还不支持呢。。。搞的再好,部署到服务器的时候只有 linux ,谁会花功夫去帮他推动呢。。。
@jorneyr 主要是被同事最近的外星人刺激到了。。。
@PureWhiteWu 我在 linux 下,idea 的打开速度和编译速度都比 m1 max 快很多,m3 会好点吗?
merlinX
352 天前
M1 Max32G 换了 M3 Max 128G ,主要本地可以跑 LLama 70B
mbooyn
352 天前
在 V 站看到黄色、红色内存压力的帖子里面截图发当前绿色的内存压力
LevineChen
352 天前
现在全远程 m1 max 也慢? 我现在 m1pro 16g, golang webstrom 全程本地开发, 乱七八糟各种客户端, 软件基本只开不关都没觉得卡过
coderwink
352 天前
挺关心如何用 Ai 赚钱的
clemente
352 天前
本地跑大模型
ShadowPower
352 天前
给服务器再加一块显卡吧,比加在 Mac 上有用多了
qweruiop
352 天前
@LevineChen 这个卡,理性的说当然不全是 m1 的锅嘛,我开 7 ,8 个 idea 家的窗口。。。但是,最近和同事的顶配外星人装 linux 比,打开项目/编译项目/运行项目的体验就非常明显有观感上的差异了。。。
PureWhiteWu
352 天前
@qweruiop M3 Max goland 我的体验是秒开
iCruiser
352 天前
以现在的 swap 用量和内存压力为基准,出现 swap / 内存压力接近 50% 就要考虑内存升级
omgr
352 天前
关键是你觉的 M1 Pro 太慢了,那 M3 Max 怕也快不了多少吧,况且内存不是瓶颈。

不过呢,既然搞 AI 挣了不少,上满配管他呢,不然总会有念想。虽然光从依赖角度,该远程还是要远程(
43n5Z6GyW39943pj
352 天前
哥们技术栈实力这么雄厚
wclebb
352 天前
我是买了 M3 Max 128G ,和你不一样的是,我是设计兼渲染的。所以基本上就是预算上选 内存最大。
恰好对最近的 AI 和模型也有兴趣,想本地跑跑图或文字看看。

LLaMa 70B 好像在 110G 左右,128G 恰好也在能跑的范围内。
最近听说清华大学 SDXL 模型,M1 跑图原本一分钟,缩短到几秒,跟 2080Ti 差不多的级别。

所以 AI 在 Mac 方面也是在追赶上去,但短期内可能没这么快。
我也是从 宣布 OCtane he Redshift 支持 macOS Metal 开始,一直等了跳票很久才终于用上 Redshift he OCtane 。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/997644

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX