关于 AI 提示词的一些问题

2023-10-09 23:08:20 +08:00
 Inzufu
有一些问题想不明白,我不研究机器学习这方面,所以希望各位解答。
目前类似于 ai 的应用有不少,比如用 chatgpt 翻译文本,都要在请求前插一段内置的提示词比如:“你现在是一个翻译,balabala.... 帮我把 a 译为 x 语”,感觉这样好像很不优雅,我感觉用这种提示词写出来的应用很奇怪,感觉实际上核心功能都交给了一个不确定性极大的语言模型。
我感觉所谓的提示词应该是给人用的,而不是让机器去调用机器,那这样就失去了大语言模型存在的意义。
还有最近所谓的提示词工程师和提示词课程,我感觉更是鬼扯,这岗位我感觉应该根本不会存在。
836 次点击
所在节点    问与答
5 条回复
x1184
2023-10-09 23:12:28 +08:00
未来的趋势是应用化 Agents 化,你看不到背后的提示词和处理过程了,直接获知结果
youthfire
2023-10-09 23:21:46 +08:00
进步很多了,提示词在 3.5 阶段尤其敏感,细微的区别就能造成结果天差地别,也才诞生了当时的“提示词工程师”一说。经过自媒体各种发酵。你没发现 4.0 后这种论调就冷淡了吗?
pansongya
2023-10-10 09:22:12 +08:00
人都得 PUA 何况机器呢
lyyQAQ
2023-10-10 09:40:32 +08:00
可能因为它是单字接龙,前面的内容会影响后面生成内容的概率,加上引导以后会有更大概率生成你需要的内容或者更优质的内容,不过 gpt4 大部分时候不需要引导就能给出很好的结果了,除非某些时候它给出的答案确实不满意,或者像生成 midjourney 提示词这种情况
Yuhyeong
2023-10-10 11:43:30 +08:00
工具而已,你能用明确的指令控制 LLM 的行为已经很好了。

要优雅干嘛,指望 LLM 陪你跳华尔兹?你提问再怎么优雅他本质就是随机的啊,不是你用你觉得优雅的指令他就不是一个随机性极大的模型了。明确的指令才能有正常的效果。建议工程师们不要把坏习惯带到这种没必要的地方。

提示词工程师这个确实离谱,谁干我笑话谁,随便找个高中生适应一个月就能干。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/980429

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX