2024 年了 ,买 64G 2T m1max 的 macbookpro 14 寸还行么

9 天前
 RenoYoo
我看拼多多 64G 2T 的 macbookpro 14 寸 2 万能拿下,m1max 能跑大模型么,平常用有没有什么不兼容的问题啊,同配置的 m3 得 3 万了,想贪便宜了
4047 次点击
所在节点    MacBook Pro
69 条回复
shuimugan
8 天前
@lrigi 我测过啊,我有 2 张 2080ti 22g ,1 张 7900xtx ,1 个 Mac Studio M2 ultra 76 核 192G 内存。
你发的那个已经是 10 个月前的数据了,也不知道怎么测的,最近编码能力很牛的 Codestral 22B 6bit 量化在 2080ti 22g 都能跑 22 token/s 。而且 10 个月前海外还买不到 22g 的魔改 2080ti
xiebaiyuan
8 天前
@RenoYoo 看起来还是有点差别。 我自己是 m1max ,m3pro 感觉更加透亮一点。 不过 m3pro 这代记牙膏挤的不太够。 如果考虑新的可以等等 m4 系列的。 ipadpro 上来看 m4 版本续航大幅提升了
shuimugan
8 天前
@lrigi 好久没跑 7B 这么小的模型了,刚刚又跑了一次来弄点数据,量化方式都是 GGUF ,推理后端都是 llama.cpp 。
Codeqwen-1_5-7b-chat 模型,q4_k_m 量化,单张 2080ti 22g 下推理速度是 70.54 token/s ,在 M2 Ultra 上速度是 75.34 token/s 。
Mistral-7B-Instruct-v0.1 模型,q8 量化,单张 2080ti 22g 下推理速度是 51.72 token/s ,在 M2 Ultra 上速度是 61.24 token/s 。
PainAndLove
8 天前
千万别。要么直接 m3max ,要么等等 3 个月后的 m4max
RenoYoo
8 天前
@PainAndLove 主要是很贵啊
RenoYoo
8 天前
@coolcoffee 懂了
RenoYoo
8 天前
@1002xin 不完全是跑大模型,也是日常用的
RenoYoo
8 天前
@sq125 如果是日常敲代码用呢
dilidilid
8 天前
@magic3584 现在还没发正式版的 MacOS 15 都支持到 MBP 2018 了,M1 系列至少还有 3 年支持。而且 MacOS 14 和 15 都是支持到 MBP 2018 ,很大概率未来支持时间会被拉长,这几年的新系统砍支持机型主要还是逐渐过渡到 ARM 架构。

再说了,都问这个问题的人了肯定是预算敏感型用户,不知道为啥这么多人觉得四五年之后差一年的系统更新是个很大的缺点。
mouzhiyang
8 天前
在用 14 M1Max 64G 1TB ,日常开发过剩
RenoYoo
8 天前
@mouzhiyang 散热 OK 么
RenoYoo
8 天前
@legenumbre #40 官翻?
RenoYoo
8 天前
@xiebaiyuan #42 主要是我现在就要用,另外同配置 m4 得 3 万了吧
xiebaiyuan
8 天前
@RenoYoo 2t 估计不止了。硬盘挺贵的。 只能说 m1max 目前用起来性能是够的。llm 能推理训练还是不太行
mouzhiyang
8 天前
@RenoYoo #51 CPU 常年 50 度,风扇基本没有转过,转的时候 2000+ 转速,也听不到声音
RenoYoo
8 天前
@mouzhiyang #55 明白,多谢分享
RenoYoo
8 天前
@xiebaiyuan #54 明白了,感谢分享
cpper
8 天前
@RenoYoo 平时使用不怎么转,但是如果做大任务,例如编译 unreal 引擎,照样飙升到 80-90 度
jiuzhougege
8 天前
我打包 app 都 105 度
RenoYoo
7 天前
@jiuzhougege 我去,这么离谱了
@jiuzhougege

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1052776

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX