本地跑 sd 和 local llm 推理, 什么显卡性价比最高?

130 天前
 cinlen

如题。

纯推理,主要用于个人学习(sd, ollama 小参数模型), 没有微调需求。

3491 次点击
所在节点    程序员
38 条回复
justFxxk2060
130 天前
2080ti 魔改
13240284671
130 天前
3060ti 16g
13240284671
130 天前
说错了,4060 16g
hez2010
130 天前
本地一般是跑量化后的模型,你的显卡起码得支持 INT8 和 INT4 。
netizenHan
130 天前
应该要求不高吧,前两天看公司里有人用 M3 的 macpro 都能部署 LLaMA3-8B ,不过就是比较慢
cinlen
130 天前
@justFxxk2060 有看到 2080ti + 22g 的方案,这个靠谱吗?
cinlen
130 天前
@hez2010 最好是可以 fp16
my101du
130 天前
@13240284671 非 ti 的 4060 , 好像都是 8G 的? 618 想装机都没找到 16G 的 4060.
cinlen
130 天前
@netizenHan 目前我是 m1 跑小模型没啥问题。 但还有 sd webui 和 sd comfyui 的需求,所以应该会攒台新机器。
ccloving
130 天前
如果是 SD 和 ollama ,用 A 卡是不是就可以
cinlen
130 天前
@ccloving 好问题. 话说你不提我压根没想过 A 卡
ccloving
130 天前
@cinlen B 站上有人搞 A 卡,你搜搜,又不炼丹,按说没问题,大显存的显卡都不贵呀。
gam2046
130 天前
@netizenHan #5 8B 效果很一般,基本处于完全胡诌的状态,我用 3090 跑过,响应速度快,但是胡说八道。而 70B ,我的 3090 就跑不起来了。
SamLacey
130 天前
@cinlen 矿卡老祖了,如果售后有保障,或者你动手能力强可以冲,40 系老黄刀法太好了,60superti 与 70 价格差一倍,性能也刚好差一倍,显存不爆的情况下,只有时间差别
SamLacey
130 天前
反正挺推荐 4070ts 的
luchenwei9266
130 天前
看预算,3000 以下无脑选 2080ti 22G
goxxoo
130 天前
我算过了, 和一台 MBP 价格差不多...2w 以内
zysuper
130 天前
没钱选 NVIDIA GeForce RTX 4060 Ti ,
billgreen1
130 天前
M2 ULTRA 192GB,
cinlen
130 天前
@luchenwei9266 可以考虑看看 , 魔改的 22g 踩雷概率高吗?

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1053310

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX