装 2 块 GPU 的深度学习主机, 主板一定要支持 SLI 吗?

2022-10-21 23:33:21 +08:00
 cloud2000

我在考虑升级主机到双 3090, 网上有人说主板不需要支持 nvidia sli, 也能发挥双 GPU 的实力. 因为 tf 和 pytorch 都支持多 GPU; 但是没有提到 3090 支持的 nvlink 会不会受影响.

如果用了 nvlinik, 2 块 3090 的 24G 可以合并成 48G. 所以我的问题是: 如果主板不支持 sli, 那么还能用 nvlink 合并显存吗?

2102 次点击
所在节点    问与答
5 条回复
paopjian
2022-10-21 23:47:08 +08:00
nvlink 不能叠加显存,只是提高通信带宽的,现在的深度学习框架有其他技术实现单机多卡训练
想要超大显存只能买更贵的卡
yangyaofei
2022-10-22 00:15:32 +08:00
多卡带来的是 batch size 方向的提升,如果本身模型太大,单卡跑不了 1 个 batch ,多卡也放不下的。 其实现在有梯度累积,只要能放下一个 batch 就可以累积成比较大的 batch,虽然损失速度和精度。 所以多卡更多的是训练速度上的提升
siknet
2022-10-22 00:18:53 +08:00
三块 p40 肯定比一块 3090 性能好吧?
fisherwei
2022-10-22 13:34:19 +08:00
nvlink 如果能合并显存,美国还封锁什么 A100 H100
systemcall
2022-10-22 19:20:34 +08:00
SLI 是打游戏用的,现在基本上淘汰了,新点的游戏基本上都不再支持任何多 GPU 技术了
tf 和 PyTorch ,都是自己实现的多 GPU 。你弄两个一样的 GPU 就行了。其实和挖矿差不多的
nvlink 和主板是否支持 SLI 没关系。SLI 的桥其实和那些多屏卡的同步器是类似的,只是用来同步帧序列
nvlink 有一些地方说可以增加显存,但是一般的场景好像没那么大的作用,还是只能用一张显卡的显存

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/888849

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX