gpt-4-32k 模型 api 的上文 tokens 应该设多少

2023-06-25 02:22:18 +08:00
 SillyGod
如果我没理解错误的话

32k 指的是输入+输出最大为 32k 吧

那我历史+新提问 的 tokens 或许设置为 16k 比较好?

假设我历史记录无限多,要是设置成 32k ,他岂不是没得输出喽?

亦或者其实他输入也有个限制,比如 16k ?
952 次点击
所在节点    问与答
3 条回复
swulling
2023-06-25 08:08:17 +08:00
自己手动切历史记录或者用 API 对历史记录进行 summary
kaichen
2023-06-25 09:58:29 +08:00
你如果用的 langchain 来做,可以直接用他的 memory 类,想简单限制数量就用 ConversationTokenBufferMemory ,想做总结再来回交互用 ConversationSummaryBufferMemory

记录的持久化也能处理

https://api.python.langchain.com/en/latest/modules/memory.html
SillyGod
2023-06-25 10:13:59 +08:00
@kaichen 我没用过 langchain ,你在使用中碰到过 bug 嘛

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/951308

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX