llama 3 发布了,我感觉挺猛的...

251 天前
 t41372

我用 ollama 本地玩了一下 llama 3 8b (ollama 支持的也太快了...这才多久啊)

英文的话我觉得挺猛的... 回答的很漂亮,很明显比 mistral 7b 要强了,我试了几下也没什么问题,不过我测试的都是一些简单的问答,重点还是 rag, 使用工具和 agents 之类的。还记得去年玩 llama2 13b 时感觉那玩意儿挺傻的,后面还被 mistral 吊锤了,所以这次出 llama 3 的时候我还有些不屑一顾...

lmsys 的 chatbot arena 中,llama 3 8b instruct 也干掉了 mistral medium, mixtral 8x7b, command R 35B ,还有 chatGPT 3.5 之类的模型(存疑),不过毕竟刚出,只有 1000 多张投票(其他模型基本都有个几万张票),结果还不准,要等排名稳定,但我目前感觉这玩意儿在 7b-13b 甚至是 30b 的赛道真的好像还不赖。

考虑 llama 2 在开源社区巨大的影响力,考虑到有非常多模型都是基于 llama2 做的微调,很期待之后开源社区都能调出什么东西 (nsfw 咳咳咳咳咳咳)

当然这东西应该没有支持中文,我测试了一下,中文翻译完全不行,用中文提问也会用英文答,很明显没有针对中文做训练。能理解中文怕不是语料库混了点中文吧... 真的要用中文肯定还得等中文的微调。(我其实不太懂那些用中文测试不支持中文的模型的家伙...)

如果你想玩玩看的话,这里有几种方法:

meta ai

chatbot arena

ollama

自己想办法

3410 次点击
所在节点    Local LLM
12 条回复
yueji
251 天前

就这?
frankyzf
251 天前
@yueji 只问这一个问题估计不能评估模型的能力吧?个人感觉这种信息只要加入训练的数据集就可以了,体现不出来大模型的推理能力。个人意见。
yueji
251 天前
确实不能评估模型的能力.
但是也不能瞎编内容吧?
Mithril
251 天前
hn 的帖子说是和 wizard 2 8x22b 差不多的
ivmm
251 天前
@yueji 你问训练的时候没有训练的素材就会出现幻觉问题。

人家压根就没去训练中文环境和中文内容
mumbler
251 天前
之前开源模型训练语料都是 2-3T ,因为 llama2 就是 2T 训练的,现在 llama3 训练数据达到 15T ,后面所有模型都是 15+T 了,llama 是基座,各种微调很快会出来,都会碾压 llama3 的
t41372
251 天前
@yueji 这模型就没练中文,而且 8b 只有 2023 年三月以前的数据,这能不瞎编吗
LanhuaMa
251 天前
@yueji 我感觉更像是你的问题

![]( )
badbay
250 天前
大哥有部署教程吗,文档看不太懂啊
t41372
250 天前
@badbay 去下一个 ollama, 然后命令行运行 `ollama run llama3`,完事
badbay
249 天前
@t41372 谢谢,我试试
kangfenmao
155 天前
再给大家推荐一下我开发的 Ollama 桌面版客户端: https://hao.logosc.cn/p/3748

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1034052

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX