你们有搞 gpu 算力平台的吗

253 天前
 wangbin11

我想看看 V2EX 有作这方面的吗

4642 次点击
所在节点    程序员
40 条回复
dayeye2006199
253 天前
我只能说,搞一堆 4090 做计算集群的,可能连 data sheet 都没读过。
数据中心卡为什么是数据中心卡,游戏卡为什么是游戏卡,都是有关键不同点的。
yanest
253 天前
都是想当然的,以为一个机器插 8 个 4090 就能 8 倍算力了,赶超 h100 了
l4ever
253 天前
搞了 6 块 4080 算吗?
ETiV
253 天前
https://github.com/b4rtaz/distributed-llama

Run LLMs on weak devices or make powerful devices even more powerful by distributing the workload and dividing the RAM usage.
stoneabc
253 天前
@dayeye2006199 4090 做推理用,多数场景完爆一堆数据中心卡…只能说老黄真是暴利
wangbin11
253 天前
@all ,大佬们我说的是如何便宜的使用而不是说几倍算力注意审题
tap91624
253 天前
pcie 带宽有限,都得上 nvlink ,家用卡做算力集群怎么可能这么简单
GeekGao
253 天前
只有玩具意义,没有生产意义。
doublebu
253 天前
带宽有限不太适合大模型。但是也有相关项目: https://stablehorde.net/
totoro52
253 天前
wangbin11
253 天前
@totoro52
@doublebu 牛哦,国内有没有,我想去谈合作
totoro52
253 天前
@wangbin11 #11 国内不太清楚哦,这个平台目前不支持国内,会被租出去但不会给费用
doublebu
253 天前
@wangbin11 国内不清楚,如果你是有算力的话,可以尝试在咸鱼租用。我朋友 2080ti 22g 的魔改卡租给出图的,好像是 9 块钱一天。
kneo
253 天前
这种是咸鱼小作坊模式。
neopenx
253 天前
ToC 做分布式算力,用户机器的稳定性和数据隐私都是问题。自己搞搞玩玩可以,出了事故就完蛋了
cczh678
253 天前
有,在这里,提供 AI 训练平台提供 AI 训练推理的过程资源管理和效能服务; GPU 池化解决方案,保护 GPU 投资,让 GPU 共享,发挥最大效率;提供 AI 训练推理高性能存储资源池,同时也做 LLM 大模型一体机建设,基础设施和平台一体化交付,有端到端的 AI 基础设施解决方案,希望和您取的联系,加强合作。
cczh678
253 天前
@wangbin11 我这边可能能帮上 OP 的忙。
xxb
253 天前
有的,我就是相关的人
dayeye2006199
253 天前
@stoneabc 啥完爆,推理这种暂且不论模型太大需要做分布式推理的,一上通讯游戏卡直接速度原地爆炸的。
就说完全不需要通讯的,资源分割和池化,mig vgpu 啥也不支持,利用率直接跌穿地板
wangbin11
253 天前
@xxb 有没有兴趣加个好友聊聊认识下

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1022098

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX