关于 ChatGPT 的恶意揣度

2023-02-15 11:07:31 +08:00
 yumenawei
假设 ChatGPT 的认可度越来越高,越来越智能,以后大家遇到问题会首先去问 ChatGPT 。
那如果将某些问题的答案修改为管理者喜欢的答案。
更甚者,直接输出某些极端的观点,是否有控制人的思考 /想法 /三观的可能性?
2952 次点击
所在节点    OpenAI
26 条回复
daliusu
2023-02-15 12:10:09 +08:00
你说的这个,现在没有吗?尤其是墙内社交平台,我很费解
cherryas
2023-02-15 13:15:59 +08:00
你说的已经发生了,chatgpt 刚开放那几天我问了俄乌的问题 chatgpt 那回答真是绝对中立,现在再问明显是偏向美国的. (此回复拒绝对谁对谁错展开讨论)
SunsetShimmer
2023-02-15 13:43:16 +08:00
如果一个人只相信 ChatGPT 的输出,那么这个人本来就不具备判断是非的能力。
如果它反人类了,正常人看不出来吗?网友对“政治”的敏感度不够高吗?
Hihanying
2023-02-15 14:09:59 +08:00
建议了解下传播学,可能对信息媒介如何影响群体心智会有更深的理解
mxT52CRuqR6o5
2023-02-15 14:18:35 +08:00
@yumenawei
就像#14#15 说的那样,我还是比较认同的
有没有互联网真的是差别很大
在没有互联网的时代,比如我是个美国人,我信不过美国媒体,我想去看中国媒体的信息,可能相当的难。
但如果是现在,这种事情想做的话都是相当轻松的
chitanda
2023-02-15 14:37:19 +08:00
@zhlxsh 不用这样,只需要潜移默化的影响你的思维,观点,成型后你即使看到真实的信息也不会去相信的。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/916264

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX