请问目前哪些本地 AI 模型的代码能力比较强? 8G 显存的情况下.

2023-06-22 21:43:23 +08:00
 chackchackGO
因为特殊需求, 需要离线查代码相关资料.

或者请问有这方面的排行榜 /测试表吗
1882 次点击
所在节点    问与答
10 条回复
murmur
2023-06-22 21:58:12 +08:00
8g 的模型除了画图都是玩具,基本没多长的会话长度,想真的用还得整个 o22g 的魔改版
czfy
2023-06-22 23:15:10 +08:00
本地
8G 显存

这两点就决定了当前不会有可用的
rogerer
2023-06-23 00:46:36 +08:00
好奇是什么资料查询需要用到 AI 模型
locoz
2023-06-23 04:15:15 +08:00
已经测试过了,目前能在消费级 GPU 上运行的开源模型,没有任何一个在代码能力方面达到可用水平的。
lithiumii
2023-06-23 05:33:56 +08:00
https://github.com/fauxpilot/fauxpilot

8G 卡得很好,可以跑 2B 参数的模型了
yanyuechuixue
2023-06-23 08:27:40 +08:00
借楼问下,24G 的话有什么模型可以跑呀?
swulling
2023-06-23 10:22:02 +08:00
@yanyuechuixue 24G 显存,可以跑 40B 参数模型的 4bit 量化版本。
yanyuechuixue
2023-06-23 14:10:01 +08:00
@swulling 谢谢大佬!请教一下,40B 的 4bit 量化和 7B 的无量化哪个性能好一些呀?
lchynn
2023-06-23 16:40:36 +08:00
@locoz StarCoder 这种肯定不行,但是 bigcode/santacoder 这种轻量级代码模型也不行么?
swulling
2023-06-23 20:02:42 +08:00
@yanyuechuixue 那肯定是大参数好

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/950930

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX