如果你从一开始就不把大语言模型当成一个真人来沟通,那么有时候得到的结果不确定性会更大。
如果让你计算 17 乘以 28 ,你可能不会立即知道答案,但是可以花时间算出来。类似地,当 GPT 试图立即回答问题时,它会犯更多的推理错误,而不是花时间计算出答案。在回答之前,要求给出一系列的推理过程可以帮助 GPT 更可靠地推理出正确的答案。
具体方法:
1.提示模型不要匆忙得出结论,而是要先找出自己的解决方案
2.使用内心独白或一系列查询来隐藏模型的推理过程
3.询问模型在之前的处理过程中是否遗漏了什么内容
1
xhs328 2023-09-01 01:45:42 +08:00
这些确实是很不错的提示词,回头试试看,多谢~
|