问一下要实现一个类似 GPT3.5 的离线模型要多大 effort

287 天前
 jameskongawork

就是想在本地离线使用,有现成的模型可以用吗,另外大概需要多少张显卡?有人做过这个吗?

1084 次点击
所在节点    问与答
3 条回复
noe132
287 天前
gpt3 规模类似 bloom 176B ,bloom 176B 做推理使用 fp16 需要 352G 显存,通常来说会用 8 卡 A100 80G 的单机器效率最高,单机显存不够如果分机器的花会影响速度。老黄有 8 卡 A100 的平台卖,好像大概是 100w 一台左右当时?
bloom 模型有缩小版本的,像 bloom 7B1 可以在 24G 显卡上跑,bloom 3B 应该可以在 10G 显卡上跑,只不过相对来说生成结果质量会变差很多。
https://github.com/huggingface/blog/blob/main/bloom-inference-pytorch-scripts.md
gaobh
287 天前
本地跑你是跑不起来的,至少得几张 A100 吧
akira
287 天前
清华的那个好像不用太多资源就能跑起来了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/972578

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX