大模型私有化是怎么集群部署的?

23 天前
mingtdlb  mingtdlb

基于大模型要比较多的显卡资源,但一台服务器 pcie 插槽有限。

那大模型是怎么集群化的,比如部署 deepseek R1 671B,应该需要很多资源吧。我不知道多少,假设 10 台服务器,每台 3 块 RTX 4090 。

那它是怎么组成集群呢

652 次点击
所在节点   Local LLM  Local LLM
6 条回复
Tinet
Tinet
23 天前
tensorflow 这些架构自带的吧
erquren
erquren
23 天前
vllm 节点 组网
marcong95
marcong95
23 天前
有为这个需求特化的服务器主板不是都有 8 卡以上的 PCIe 插槽么,例如当年的矿机主板还有用 USB 3.0 物理接口走 PCIe x1 的骚操作,理论上你要能插 H100*8+也不是不行。
mingtdlb
mingtdlb
23 天前
@marcong95 举例,,并不是要去部署,只是好奇。像大厂他们部署,用户量那么多,一个集群总不能就整个三五台插满显卡的主机啊
zhazi
zhazi
23 天前
NCCL ,英伟达提供了通讯库

简单理解成 mapreduce
volvo007
volvo007
22 天前
@mingtdlb 硬件上要购买专门的连接器,所以 nv 才会按节点来卖,一个节点 8 张卡,节点之间通过光纤连接。基本上也都推测因为这个分布式计算的需求,nv 才收购了专做网络的 mellanox

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1115481

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX