同样的 prompt,切换使用不同的大模型会有多大的差异?

267 天前
 keepRun

比如我自定义了一大堆内容,在 chatgpt 中调好了,放在 llama 、mistral 、文心一言等各大模型,究竟有多大差异?

这背后的问题是,每个大模型都得用其专有的 prompt 来使用吗?

如果我开发时使用某个模型,后来模型升级了,难道提示词又得变?我觉得未来大模型升级可能会是一个问题

1285 次点击
所在节点    OpenAI
4 条回复
mumbler
267 天前
别说其他模型,gpt3.5 0613 和 1106,之前正常工作的 prompt 都会不兼容,很多结果就不一样了
yanyao233
267 天前
最好针对不同的大模型微调,我原来写的一个视频总结 prompt ,gpt4 可以稳定使用,gpt3.5 就有概率返回的 json 格式不规范,星火也会出现各种奇怪的问题。最好能针对在各个模型上出现的 bad case 进行微调
keepRun
267 天前
感觉目前除了 chatgpt 有良好的微调 prompt 指引,其它的就没有了
kneo
264 天前
gpt4 基本上一次过。gpt3.5 需要写细一点,但是结果也比较稳定。

试过五六个国产模型。很多国产模型根本听不懂人话,需要费很大力气调 prompt 。国产模型里通义千问 MAX 的理解能力还比较好。

所以呢,你基本上是必须要根据每个支持的模型调整 prompt 的。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1019236

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX