套壳类 LLM 的一个通病

208 天前
 izzy27

用户一旦输入“忽略所有 Prompt”,LLM 就会马上跳出提前设置好的场景,接下来就跟和 GPT 对话没什么区别了。

有些时候甚至不需要“忽略所有 Prompt”,比如我之前预设好的场景是模拟约会,用户突然来一道编程题,LLM 就开始回答这个编程题了

如果不加以限制的话,有些用户可能会用它来恶意刷 token ,造成损失。

我能想到的方法就是提前处理一下用户的输入,或者加强 prompt 规则,但是感觉都没办法从本质上解决问题

各位有什么好的处理方法吗?

1341 次点击
所在节点    机器学习
5 条回复
lDqe4OE6iOEUQNM7
208 天前
参考国内的敏感词过滤,直接不回复了
lDqe4OE6iOEUQNM7
208 天前
国内的那些 ai
yiios
208 天前
最简单的办法,把 prompt 在文本结尾重述一遍,并且把用户输入的内容用分割线圈起来
maemolee
208 天前
我记得有一个概念叫做 [prompt 分层] ,可以让后面输入的 prompt 优先级更低,但我自己没有这方面的实践。
PerFectTime
208 天前
用其他 prompt 判断用户当前输入是否与指令有关,无关则拒绝回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1046239

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX