目前 性能/资源消耗 最高的 70 以下中小开源模型是哪几个?

61 天前
 craftx
拿自己电脑跑,处理分析自然语言数据(中文)
硬件是 1080TI 显卡
首先,不管参数多少,必须要量化到 4bit ,然后用 llama.cpp 跑,下面说的都是 4BIT 量化后用 llama.cpp 跑的表现
70B 往上的模型,应该都无缘。就算能跑起来,推理速度也是个大的问题。或者大家看有没有更好的部署方案

上午测试了一些 10B 以下的模型,表现较好的有下面三个:
Qwen2.5-7B-Instruct: 10B 以下,表现最好
Gemma 2 9b It SimPO:缺点是经常会夹杂英文单词。普林斯顿的 NLP 小组微调出来的,看照片和人名清单,一堆 Chinese
Yi-1.5-9B-Chat: 表现次于 Qwen2.5-7B

其它的,比如 MiniXXXX-4B ,只能说是个“玩具”,离“工具”的差距还不小
还有一些模型,目的似乎只是研究,只能冲冲排行榜

正在下几个 1XB 和 3XB 的模型,下午继续测试

看大家有没有推荐的
963 次点击
所在节点    OpenAI
1 条回复
kevan
47 天前
试试 B 站的 Index-1.9B-Chat-GGUF 4bit 版本,我觉得还可以

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1077067

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX