今天看小鹏发布会,说小鹏 AI 有 7000 张卡,这在中国算什么水平

216 天前
 kirieievk

现在那个企业的算力最猛.

2121 次点击
所在节点    OpenAI
8 条回复
digd
216 天前
中国算卡最多的应该是字节
jwangbyus
216 天前
搞出来 deepseek 的幻方了解一下
egen
216 天前
记得 01 万物屯了 1 万张左右,阿里、腾讯和字节应该在 10 万规模
egen
216 天前
比较好玩的是蔚来,蔚来 NT2.0 平台所有车型都配了 4 颗 orinx ,int8 大概 1000TOPS ,对比 A100 int8 大概 1200TOPS ,蔚来售出的 nt2.0 平台的车数量有 23 万+,如果利用好的话是相当可观的算力。

其他车厂都是分智驾和非智驾的版本,导致真正售出带智驾芯片的车远不及蔚来。
而且蔚来的算力芯片是超配的(大多数车只配了一颗 orinx ),有足够冗余的算力用来做额外计算。
mythabc
216 天前
> Marking a major investment in Meta’s AI future, we are announcing two 24k GPU clusters

llama3 的训练用了两个 24k 的 H100 集群。
mythabc
216 天前
没发全。
Marking a major investment in Meta’s AI future, we are announcing two 24k GPU clusters. We are sharing details on the hardware, network, storage, design, performance, and software that help us extract high throughput and reliability for various AI workloads. We use this cluster design for Llama 3 training.
lpf0309
215 天前
这么少么,我以为这些都是万级起步呢
ywkk
215 天前
没戏,GPT4 级别的大模型需要 2-5 万张 A100 级别的,下一代大模型(正在训练中的)已经到 10 万张算力以上,META 有 60 万张,想想看这个军备竞赛。国内只能指望华为集群,解决了 5nm 制程后也能生产 A100 性能的 GPU 了,但还是要分一部分给麒麟芯片生产,用于训练服务器的升腾芯片不知道供应如何。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1042428

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX