为什么国内大模型速度比 chagpt 慢很多

27 天前
 yiwanjidanmian

我大段文本,gpt-4o 3 秒左右就能返回,国内比如智谱清言,文心一言就要 10 秒多才能返回,有没有知道原因啊,真难搞

2486 次点击
所在节点    OpenAI
21 条回复
kyor0
27 天前
这不正常么
czfy
27 天前
虽然 4o 本身就是牺牲质量换速度
但除了技术比不过,你觉得还能有什么其他影响因素?
TheJustin
27 天前
老黄专程送 H200 给奥特曼,国内还在用上一代的阉割算力,阉割不说,数量还跟不上……
Antihank
27 天前
体会到了登子扼颈的窒息吧
Chad0000
27 天前
还有就是人才的意愿问题,如果给人才一个选择的机会,去美或中,答案就是原因。
ronyin
27 天前
百度文心一言还有人用么。。
pingpz
27 天前
gpt-4o sleep()写太小了
weijancc
27 天前
我目前对比了所有国内 AI 产品,抖音的豆包和讯飞的 AI 比较快, 但是训分的 UI 太丑了.. 抖音的回答质量会稍微弱一点, 但是够用了.
kenvix
27 天前
没钱
实际上你自己部署开源的国内大模型就会发现速度也很快的...比如阿里 Qwen1.5
Retas
27 天前
moonshot 基本秒回
yiwanjidanmian
27 天前
@Retas 那我试试
Reid
27 天前
@Retas moonshot 输入长文本,经常卡住啊
ardour
27 天前
算力都不在一个级别
frankkly
27 天前
@pingpz #7 华为:别逼我写 sleep(0)
JoeDH
27 天前
国内的那回复都是一个一个字返回来的,gpt 的是一大段直接吐出来给你
Donaldo
27 天前
没钱 没卡
kenvix
27 天前
@eastjoehan #15 你这说的,哪个 LLM 不是 token by ken ?
wweerrgtc
27 天前
也许是需要审核 输入和输出的内容
zhangdp
27 天前
可能需要分析审核内容耗时了,不允许违法的特别的反动的词语
macaodoll
26 天前
问就是制裁没显卡,

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1042889

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX