体验 llama3 系列的速度吧

297 天前
 ProxyXAI

https://free.proxyxai.com

2857 次点击
所在节点    OpenAI
29 条回复
bearqq
297 天前
点之前:本来一脸不屑
点之后:卧槽?????????
junan
297 天前
试了几次后和#1 一样的反应
hooych
297 天前
速度确实嘎嘎快,GPT 是便秘,这个有种一泻千里的畅快感
qinfengge
297 天前
G 了,一直请稍后再试
xier9213
297 天前
速度确实快,就是太不稳定了
zsxzy
297 天前
用什么 gpu 跑的, 我用笔记本的 3060 6G, 好慢 😆
Goghho
297 天前
@zsxzy 这么快感觉就是 groq 吧
hebwjb
297 天前
挂了
djangovcps
297 天前
fredweili
297 天前
8b 的本地跑,效果已经不错了
nwg
297 天前
我擦 这么快
itskingname
297 天前
用 groq ,速度可以达到 700Token/s ,已经没有必要使用 Stream 模式了。
maolon
297 天前
是 groq 快不是 llama3 快吧...用其他方式 host 速度跟其他模型差不多
param
297 天前
@hooych gpt 用最低配的 ada 一样很快
lizhisty
297 天前
怎么挂了啊
coolair
297 天前
请稍后再试!
coderluan
297 天前
你们说的快不是瞬间就输出 “请稍后再试” 吧😀😀😀
Chad0000
297 天前
没有背后的总算力就说快就是流氓,要我说我还能说我的 GPT4 上午使用时相当快,又聪明又快,比 3.5 还快。那明显是因为那时用量低,算力足啊。
hooych
297 天前
@hebwjb
@djangovcps
@lizhisty
@coolair
@coderluan 左下角切换模型
huzhizhao
297 天前
请稍后再试!

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1035436

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX