V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Roger1007380462
V2EX  ›  程序员

请教部署一个大模型的成本大概是多少呢?

  •  
  •   Roger1007380462 · 2023-08-11 17:41:42 +08:00 · 2561 次点击
    这是一个创建于 481 天前的主题,其中的信息可能已经有所发展或是发生改变。

    背景: 想部署一个大概 10B 以下参数量的模型、对用户提供服务、QPS 预计 100 左右、平均耗时 500ms 左右,这种程度的服务情况下的成本是多少呢?

    11 条回复    2023-08-14 10:17:57 +08:00
    Kaiyuan
        1
    Kaiyuan  
       2023-08-11 18:03:44 +08:00
    如果 Mac 能步处的话,128 内存 Mac mini 算是性价不相对较高的。毕竟内存能当显存用。
    israinbow
        2
    israinbow  
       2023-08-11 18:54:03 +08:00 via Android
    一个用户保守一万, 起步价十万.
    xmumiffy
        3
    xmumiffy  
       2023-08-11 18:58:04 +08:00
    有大模型能 500ms 返回么?
    现在大模型处理时都是满载的,所以你这 QPS 100,500ms 那就意味着要部署 50 台设备.
    findex
        4
    findex  
       2023-08-11 23:04:41 +08:00 via iPhone
    @xmumiffy 说说硬件配置吧
    mushuanl
        5
    mushuanl  
       2023-08-12 08:02:39 +08:00 via iPhone
    有 a100 之类的卡吗?搞上 5 个以上,然后上 vllm, 但是 10b 以下可用性太差,能满足功能要求吗?一般都是 13b 起步,如果 33b 发布那么更好建议是 33b
    Roger1007380462
        6
    Roger1007380462  
    OP
       2023-08-12 09:32:25 +08:00
    了解,看上去这成本有点高啊
    Roger1007380462
        7
    Roger1007380462  
    OP
       2023-08-12 09:33:51 +08:00
    @Kaiyuan mac 部署有什么可用的模型吗?
    Kaiyuan
        8
    Kaiyuan  
       2023-08-12 11:26:11 +08:00   ❤️ 1
    Cola90
        9
    Cola90  
       2023-08-12 11:41:08 +08:00 via iPhone
    别用 mac
    chinabrowser
        10
    chinabrowser  
       2023-08-12 19:20:14 +08:00 via Android
    @Kaiyuan 这价格都能买好几张 3090 了,10B 量化 8bit 用 3090 应该完全没问题
    Roger1007380462
        11
    Roger1007380462  
    OP
       2023-08-14 10:17:57 +08:00
    @Kaiyuan 多谢多谢
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2802 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 15:17 · PVG 23:17 · LAX 07:17 · JFK 10:17
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.