测试了可离线部署的本地多模态模型"Qwen-VL-Chat"

303 天前
 smalltong02
我从 Gemini Ultra 的发布会测试视频中挑选了 12 项和图像相关的测试
1536 次点击
所在节点    程序员
3 条回复
smalltong02
303 天前
今天,我使用可离线部署的 "Qwen-VL-Chat"模型进行同样的测试。"Qwen-VL-Chat "是阿里云开发的开源多模态大型模型,总参数规模约为 100 亿,其中文字部分 70 亿,图形部分 30 亿。半精度加载的内存占用仅约 20GB ,是非常适合本地部署的开源模型。本轮测试共提取了 12 个测试用例,总分是 12 分,"Qwen-VL-Chat"最终得到了 6 分。
Seanfuck
303 天前
这个分数怎么评价,算好还是不好?
smalltong02
303 天前
@Seanfuck 这个分数对于一个可离线运行的多模态小模型来说,其实很不错了。"Qwen-VL-Chat"在图像识别上很出色,但是在语言理解和表达能力上不太行。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1012285

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX