只是学习 AI ,弄个 NV 卡就行。无所谓内存。因为学习 AI 不等于 “用 LLM 学习 AI”,也不等于“学习 AI 应用”
CNN TRANSFORMER VAE DIFFUSION 之类的想搞明白,用不着大显存。有支持 CUDA 的 12G 就绰绰有余了。6G,8G,10G 无所谓。能跑 CUDA 是必须的
数理统计和机器学习的理论掌握了, 比大显存有用得多
非要和 LLM 较劲,查一下这个:
https://www.llamafactory.cn/tools/gpu-memory-estimation.html决定跑啥模型
如果 4090 觉着贵,只有 2080 22G X2 +NVLINK
44G 跑的模型范围稍微大一些