丐版 MacMini M4 跑 DeepSeek 情况请教

49 天前
lon91ong  lon91ong

根据 B 站视频苹果 macmini m4 安装离线版本的 deepseekDeepseek 本地部署 14b 、32b 、70b 简单横评分享的信息, 丐版 MacMini 应该能跑 14b 模型

但是 14b 的模型比较傻,不知道如果用两台丐版 Macmini 用雷电 4 线并联能否跑 32b 模型?

速度怎样? 能否用两条雷电 4 线实现带宽翻番的效果?

希望又设备的大佬能测试一下

2102 次点击
所在节点   Mac mini  Mac mini
6 条回复
AoEiuV020JP
AoEiuV020JP
48 天前
应该可行,外网有看到,
不过 14b 不满意的话 32b 也差不了多少吧,
lon91ong
lon91ong
48 天前
@AoEiuV020JP 看主楼第二个 B 站视频,14b 结果错误,32b 起码能得到正确答案
lon91ong
lon91ong
48 天前
@AoEiuV020JP 2000$ ×8 会不会比堆 Nvidia 计算卡来的性价比更高呢?
pigdragon
pigdragon
48 天前
真要想搞,等着 nvidia 的 project digit 那个桌面迷你机来用吧,内存 128g,算力比 4090 高,没比 5090....5 月开卖
Chicagoake
Chicagoake
29 天前
本地能跑的效果不太好,拿 iMac 24G 跑过。
Felixchen1062
Felixchen1062
27 天前
@lon91ong 不会 exo-lab 不是只支持 mac 可以串 2080ti 和 mac 一样的操作 一样的自服务发现 但是只能用 linux

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1109236

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX