V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  Freecult  ›  全部回复第 1 页 / 共 1 页
回复总数  1
135 天前
回复了 nananqujava 创建的主题 机器学习 学习 AI, 跑下模型, 应该用什么 N 卡?
只是学习 AI ,弄个 NV 卡就行。无所谓内存。因为学习 AI 不等于 “用 LLM 学习 AI”,也不等于“学习 AI 应用”
CNN TRANSFORMER VAE DIFFUSION 之类的想搞明白,用不着大显存。有支持 CUDA 的 12G 就绰绰有余了。6G,8G,10G 无所谓。能跑 CUDA 是必须的

数理统计和机器学习的理论掌握了, 比大显存有用得多

非要和 LLM 较劲,查一下这个:
https://www.llamafactory.cn/tools/gpu-memory-estimation.html
决定跑啥模型
如果 4090 觉着贵,只有 2080 22G X2 +NVLINK
44G 跑的模型范围稍微大一些
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2727 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 9ms · UTC 09:14 · PVG 17:14 · LAX 02:14 · JFK 05:14
Developed with CodeLauncher
♥ Do have faith in what you're doing.