想用笔记本跑 AI 模型,有什么推荐的吗

1 天前
 mqb666

rt ,目前预算 1w 左右,想买台笔记本跑 AI ,目前主要跑 SD

1194 次点击
所在节点    硬件
13 条回复
YJi
1 天前
买点算力,云上部署一套,随用随开,多划算。 (狗头
MacsedProtoss
1 天前
这个价格 再加上笔记本显存不大 hmmm…
感觉笔记本 AI 还是 Mac 的显存划算啊(狗头)

正经来说 笔记本好像低 U 高显的也很少 反正你就花钱买里面性能释放最佳 且 GPU 最好的即可
mumbler
1 天前
显存越大越好,1W 预算可以上个 4070 16G
如果跑大语言模型可以用 flashai.com.cn 的一键整合包,能流畅跑 gemma2 9B
Seanfuck
1 天前
@mumbler 笔记本的 GPU 都是残血的,尤其是显存,4090 也才 16G
mumbler
1 天前
@Seanfuck #4 笔记本功耗做不到 200W 以上,但笔记本有笔记本的场景,不需要追求极致性能
qingtian3343
1 天前
好多云上部署了,想用就用
h130666
1 天前
拯救者
hbdh5
1 天前
推荐就是老老实实的调 api ,别想本地跑啥模型,新发布的 deepseek v3 看了吧,这玩意主流的笔记本就是量化到 1bit 都加载不进内存。
mumbler
1 天前
@hbdh5 本地有本地的用途,跟云端是不同赛道,有些私密资料只能在本地处理,比如医疗数据
hbdh5
23 小时 33 分钟前
@mumbler 可题主问的是笔记本跑,那我就默认是个人用了。医疗数据应该是有业务用途的怎么也得买个 8 卡集群吧?
cbythe434
18 小时 35 分钟前
预算不够,否则就 mac pro max ,内存拉满
jifengg
18 小时 14 分钟前
楼主是要跑 生图 模型,不是 LLM 。
我现在是笔记本 4080 ,12G 。跑 SD 还可以。跑 SDXL ,1024 左右分辨率,文生图我记得应该是 10 几秒?
1w 目前买不到 4080latop ,4070 的话显存又略小( 8g )
KimGuo
16 小时 36 分钟前
考虑到笔记本 10GB 显存还挺难搞……其实不如考虑 macbook pro ,m4 款丐版国补完大概刚好 1w 多

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1100510

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX