大家试过 Meta 新开源的 Llama3-70b 大模型了吗,快是真快,但感觉不如 GPT-4 稳

216 天前
 DataPipe

昨天问了一个关于 Caddy 配置的问题,速度是真快,但即使使用中文提问,Llama3 还是默认使用英语来回答,除非你明确让它使用中文。

最后它给出的 Caddy 配置,我发给 GPT-4 ,GPT-4 说这个配置不是合法的 Caddy 配置,配置也确实不对😂。

下面是与 Llama3-70b 的对话记录: https://c.datapipe.top/share/ee36713e627fd045dbeb3e5fc27c4ab6

试用下来感觉还是 GPT-4 好用,回答可信一些。

同时支持 GPT-4, Claude3, Llama3, Kimi 等大模型,注册送体验额度,想体验的可以看下

https://datapipe.top

1659 次点击
所在节点    推广
8 条回复
unbridle
216 天前
Llama3-70b 需要多少显存?
YongXMan
216 天前
@unbridle 至少两张 4090
laminux29
216 天前
你对大模型的期望是:快 + 准 + 智能,但是现在全世界的算力、存储能力以及语料库,都达不到这个要求。

目前代码类的问题,OpenAI 的 GPT4 与 Google Gemini 各有千秋,原因是双方的算力与数据集各不相同,Meta 当然也会有这个问题。

现阶段,同时使用多个 AI ,互补长短,才是最佳方案。这类似于现实中开大会一样,集群众优势。
unbridle
216 天前
@YongXMan 谢谢回答!看来目前自己部署还是希望不大呀
Ethanccc
216 天前
@unbridle #4 没必要自己部署,groq 可以免费调,速度还贼快,我搞了十个拿来做沉浸式翻译了
unbridle
216 天前
@Ethanccc #5 哈哈哈谢谢推荐!俺去瞅瞅
bravecarrot
216 天前
要 400b 的才能赶上 gpt4 啊
DataPipe
215 天前
@bravecarrot 💪🏻

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1034656

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX