组装个神经网络模型推理主机,放本地跑数据,大家觉得这配置怎么样

10 天前
 kanson

规格参数

预算 1 万左右

1127 次点击
所在节点    程序员
19 条回复
iClass
10 天前
2w 起步 💻
lighting9792
10 天前
要我的话会选 四卡 V100 SXM2 16G 服务器,丢弱电间用,反正自己玩玩不在乎速度,能跑就行
jimrok
10 天前
这个 24G 的卡,只能跑个小模型吧。不过学习用完全没问题。
lloovve
10 天前
上 D5 比较好,有些推理比较吃内存速度
lloovve
10 天前
另外硬盘太小了
joyarise
10 天前
内存插满比较好,128G
Morii
10 天前
一万能下来么?一块 3090 都多少了
afeiche
10 天前
硬盘太小,大模型容量很大的
iMoutai
10 天前
猿神:启动!!!
buaacss
10 天前
1 块 3090 还不如搞 4 块 P40 , 核心和 2080TI 一样,24GB 显存。Qwen-VL 的模型我 8 块 2080ti 没跑起来,准备换成 P40 了。
kanson
10 天前
@iClass 哈哈,直接 double 了🤣
kanson
10 天前
@lighting9792 可以可以,听起来也是个不错的选择~!弱电间还要维护哎
kanson
10 天前
@jimrok 是叭,艰难度日😅
kanson
10 天前
@lloovve #4 好的,这上面确实不必太省
@lloovve #5 暂时没想到有大存储的需求场景,想的可能是定期转移备份?
kanson
10 天前
@joyarise 需要的时候再加哈哈
kanson
10 天前
@Morii 有点紧张哎
kanson
10 天前
@afeiche emmm...也是个烦恼,搞大些省的经常来回手动处理
kanson
10 天前
@buaacss 是叭是叭,也想组多卡来着,能这样最好啦~!
kanson
8 天前
来更新进展啦~
1. 内存加到了 64G DDR5
2. 硬盘改成了 2T 、7200RPM 的机械硬盘+512G SSD
3. 目前这配置,微调肯定够呛,后面有需求,再组多卡( 3090 貌似还支持 NvLink )或者看看其他计算卡

总花费:¥ 13868.9

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1050896

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX