深度学习入门 求工作站配置。

229 天前
 hrn961110

作为一个深度学习的小白,最近在搞 llm 微调。

用过 colab ,gpu 云服务部署过模型,但感觉都不是很方便

想拥有一台自己的深度学习工作站。但对硬件配置不是很懂

例如是选择专业卡还是消费卡。是 v100 ,还是 4090 ,还是 3090

如果要微调 70b 往上的模型,单卡显存不够的,具体怎么配置还请有经验的大佬指教一下

预算: 2w-3w+ (个人学习预算) 上限: 8w (公司预算)

要求: 1.能微调 7b~100b+ 2.尽可能便宜

1064 次点击
所在节点    机器学习
7 条回复
osilinka
229 天前
目前性价比最高的是 3090 ,就看你能买多少
hrn961110
229 天前
具体的配置可以推荐一下么
hrn961110
229 天前
@osilinka 具体的配置可以推荐一下么
cloud2000
229 天前
消费级最多微调 7-13B, 100B 是不现实的,只能云端。
osilinka
229 天前
https://www.reddit.com/r/LocalLLaMA/

可以到这里来看看吧,我个人没有那么多的资源,就买了个 4060

还可以加个千问的群,里面应该很多坐这个的
vincent7245
229 天前
个人学习,我是一个旧电脑上的 8 代 i3 ,买了两块 Tesla P40 花了大概一千,从学习机器学习到现在调大模型,一直用的挺好的,慢点就慢点,又不是不能用。
hrn961110
228 天前
@vincent7245 太慢时间成本受不了。在云服务器上用过,微调 chatglm3-6b 版本 lora 会爆内存,得 qlora 才行。而且是给公司做 rag 。
@osilinka 感谢

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1038317

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX