各位大佬, m4mini32g 跑大模型🐂🍺还是 4060ti16g🐂🍺呀?

35 天前
songche  songche
4106 次点击
所在节点   Local LLM  Local LLM
22 条回复
knva
knva
35 天前
不是哥们,这两是一个价位的吗
leonme
leonme
35 天前
32g ,显存越大越好,能跑最重要
songche
songche
35 天前
@knva 4060ti16g 配个主机和 m4mini32g+256 5999 价格感觉差不多啊
songche
songche
35 天前
@leonme 速度上呢,有区别不
luoyide2010
luoyide2010
35 天前
显存能把模型装下的话,4060ti 速度更快些
songche
songche
35 天前
@luoyide2010 速度差异很大不
jamesxu
jamesxu
35 天前
songche
songche
35 天前
@jamesxu 太牛了大佬
clemente
clemente
35 天前
前面能跑更大的模型 但是速度慢
后面能跑小模型 但是比前面跑的快
xzg1993
xzg1993
35 天前
m4mini32g 不是 32g 内存吗,4060ti16g 是 16g 显存 这俩咋对比呢
skydcnmana
skydcnmana
35 天前
@xzg1993 mac 的统一内存速度比普通内存快不少,可以凑合当显存用。
xzg1993
xzg1993
35 天前
@skydcnmana 学习了~
moyt
moyt
35 天前
单机跑这些缩水版的大模型,意义是啥,纯粹折腾着玩还是有什么可以落地的东西吗?
zqqian
zqqian
35 天前
不爆显存的情况下,速度肯定还是显卡最快。
要是爆显存,那就不一定了
cubecube
cubecube
35 天前
@skydcnmana 双通道 D5 高频也有 100G 的带宽了,4060ti 其实也可以扩展用内存的
qping
qping
35 天前
看了下 mac mini4 是 273/G 还是快不少的,我测试过 deepseek 32b 的版本,16G 显示和内存混合,只有 4t/s
@cubecube
hafuhafu
hafuhafu
35 天前
M4 24g 大战 3070 应该可以约等于 4060TI
https://www.reddit.com/r/LocalLLaMA/comments/1hrkend/m4_24gb_ollama_performance_with_llama32/

不考虑显存的问题还是显卡速度快,不过显存确实是个大问题。
mumbler
mumbler
35 天前
都不要,2080ti 魔改 22G 最香,淘宝卖 2500 ,能流畅跑 32B deepseek
iyaozhen
iyaozhen
35 天前
个人经验 我 m3 pro 跑 phi-4 吐字比较慢,但 4070 ti super 飞快
skydcnmana
skydcnmana
35 天前
@mumbler 32b 模型文件 20G ,实际需要的显存是 24 到 30G ,不可能全用显存跑啊

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1112185

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX