有人试过 gpt-3.5-turbo-16k 这个模型吗,效果如何?

2023-06-26 11:38:20 +08:00
 x77

刚在 OpenAI 文档看到的,以前没注意到

2853 次点击
所在节点    程序员
7 条回复
tttin
2023-06-26 13:05:21 +08:00
据说可以编写 5000 字的长文。我的 azure openai service 月初申请到了 turbo-16k 和 gpt-4 这两个模型,但当时没注意,胡乱操作几下就再也找不到了
liantian
2023-06-26 13:10:59 +08:00
你只要注意,任何情况下都是 4 倍计费就完事了..

自己写程序,注意判断好用 gpt-3.5-turbo 还是 gpt-3.5-turbo-4k
leipengcheng
2023-06-26 15:54:33 +08:00
为什么我用这个模型,java api 调用,但是 token 还是只有 4k
x77
2023-06-26 16:56:13 +08:00
原来邮件里讲了,就是贵点

Longer Context
We're also introducing gpt-3.5-turbo-16k. This model offers four times the context length of the 4k base model and is priced at $0.003 per 1K input tokens and $0.004 per 1K output tokens.
wanjiawei0755
2023-06-26 18:09:38 +08:00
@chaotttin #1 Azure 应该还没有 16k 吧,我记得社区里面回答说暂无计划,包括 0613 版本的模型
lanlanye
2023-06-27 02:15:02 +08:00
随着 613 版本一起更新的啊,3.5 降价了,但推出了稍微贵一些的 16k 版本,并不需要申请。

效果的话由于 tokens 变长了,长文总结或者 agent 之类的用法超出限制的可能性减小了,聊天也可以记录更多上下文了。

但上下文始终会对结果产生影响,长了有时未必是好事。

另外新模型支持的 Function calling 功能很有用,效果比 langchain 好一些,想尝试的话可以试试我写的小工具 https://github.com/laipz8200/openai-agent
MEIerer
2023-06-27 09:20:20 +08:00
限制比普通的 turbo 大,不能整色色

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/951711

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX