请教部署一个大模型的成本大概是多少呢?

2023-08-11 17:41:42 +08:00
 Roger1007380462

背景: 想部署一个大概 10B 以下参数量的模型、对用户提供服务、QPS 预计 100 左右、平均耗时 500ms 左右,这种程度的服务情况下的成本是多少呢?

2575 次点击
所在节点    程序员
11 条回复
Kaiyuan
2023-08-11 18:03:44 +08:00
如果 Mac 能步处的话,128 内存 Mac mini 算是性价不相对较高的。毕竟内存能当显存用。
israinbow
2023-08-11 18:54:03 +08:00
一个用户保守一万, 起步价十万.
xmumiffy
2023-08-11 18:58:04 +08:00
有大模型能 500ms 返回么?
现在大模型处理时都是满载的,所以你这 QPS 100,500ms 那就意味着要部署 50 台设备.
findex
2023-08-11 23:04:41 +08:00
@xmumiffy 说说硬件配置吧
mushuanl
2023-08-12 08:02:39 +08:00
有 a100 之类的卡吗?搞上 5 个以上,然后上 vllm, 但是 10b 以下可用性太差,能满足功能要求吗?一般都是 13b 起步,如果 33b 发布那么更好建议是 33b
Roger1007380462
2023-08-12 09:32:25 +08:00
了解,看上去这成本有点高啊
Roger1007380462
2023-08-12 09:33:51 +08:00
@Kaiyuan mac 部署有什么可用的模型吗?
Kaiyuan
2023-08-12 11:26:11 +08:00
Cola90
2023-08-12 11:41:08 +08:00
别用 mac
chinabrowser
2023-08-12 19:20:14 +08:00
@Kaiyuan 这价格都能买好几张 3090 了,10B 量化 8bit 用 3090 应该完全没问题
Roger1007380462
2023-08-14 10:17:57 +08:00
@Kaiyuan 多谢多谢

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/964533

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX