2024 年了 ,买 64G 2T m1max 的 macbookpro 14 寸还行么

12 天前
 RenoYoo
我看拼多多 64G 2T 的 macbookpro 14 寸 2 万能拿下,m1max 能跑大模型么,平常用有没有什么不兼容的问题啊,同配置的 m3 得 3 万了,想贪便宜了
4160 次点击
所在节点    MacBook Pro
69 条回复
PrilgrimLi
10 天前
我觉得问题不大,我的 19 年 16 寸 intel 的 MBP 还能满足日常需求呢。不过最近动了要换的心思,不是因为不能忍受发热和风扇,而是 chatgpt 发布的 mac 版,现在登陆网页不是很稳定,隔一会儿就得刷新,只能是拿 iPad pro 来弄,然后粘贴回电脑。等年底的 m4 MBP ,暂时还能忍。
tanrenye
10 天前
为了大模型买 mac 可能不是一个好选择
wangkai123
10 天前
Mac 用来推理无敌了,m1 max 秒杀了 laptop 4060
frankyuu
10 天前
最后选了哪款?
sunpm
10 天前
不跑大模型,开发前端的话 m1max 还可以用 5 年吗
beginor
9 天前
苹果 M 芯片的优势是统一内存,可以将大量的内存做为显存来使用,所以就能够运行比较大的模型。

以 64G 的 M1 Max 为例,默认可以分配 48G 左右的内存做显存使用, 通过调整系统参数, 最大可以分配 56G 内存做显存, 可以运行 Q5 量化的 70b 参数的大模型。

但是 M1 Max 推理的速度并不快。 跑同样的 llama 3 8b 模型的话, 即使是 3060 显卡, 在装好 quda 驱动之后, 推理速度是 M1 Max 的 1.5~2 倍, 而且 M1 推理的精确度似乎也没有 cuda + N 卡高。

手上刚好有台 M1 Max 的 MBP , 还有一台 3060 的台式机, 以上是亲身体验。

如果是日常开发,M1 Max 至少 3 年内斗士性能过剩的, 多数时间都是 E 核在跑,P 核最多跑 1~2 个, 还有 8 个 P 核随时待命。
houhaibushihai
8 天前
跑大模型还是组装一台 N 卡台式机吧,mbp 怎么都不合适跑大模型

台式机+轻薄本的预算估计都超不过高配 mbp 价格
wangkai123
6 天前
@beginor 啊?我用 ollama 跑的 llama 3 8b ,为什么笔记本 4060 那么慢啊 只有 2-7 token /s 。M1 max 明显快非常多,但是没算 token/s
RenoYoo
6 天前
朋友们,最后买了 m1max 14 寸了,感觉 14 寸刚刚好,16 寸太大了,背着不方便,散热确实不如 m1 ,不过个人能接受

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1052776

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX