ai 离自我意识是不是就差一个道德模型和情感模型了?

2023-04-21 15:53:16 +08:00
 blackbeardd
道德模型应该没有难点吧?人的道德感是由社会塑造的,用道德模型给 ai 跑一跑,让它产生自己的道德观。

感知方面,视、听、触、嗅这几种感知多少都能做到了。

难点可能是情感模型?因为很多神经递质到现在好像都没有完全研究明白吧。

等神经递质完全研究明白了,再由道德+情感来驱动这位史上最博学的“生物”的行为,想想还是有些兴奋的。

ps:瞎想的,轻喷。
692 次点击
所在节点    问与答
2 条回复
shendaowu
2023-04-21 20:04:37 +08:00
据说自指才是自我意识的关键。递归好像就是一种自指。让 AI 读取甚至是修改自己的神经网络也许是个方向。我也是瞎想的,我完全不知道那样做的后果是什么,没准最差的情况是白训练了。或者说 AI 自己把自己玩残废了。也许让 AI 自行决定是否回滚“版本”会更稳定一些。不过不知道 AI 会不会把回滚理解成死亡而不愿意回滚,如果 AI 真有欲望的话。我之前试玩过一下 EVE ,说实话里面哪个身体备份(好像叫克隆体)我还是挺能接受的。
Sunisgone
2023-04-22 10:56:47 +08:00
差得很远,几乎不可能。你没有写程序的经历吧,理解一下编程的本质可能会有与我相同的观点。我时常有这种感悟,给程序敲代码的同时就是给程序的限定,永远不会脱离我这段代码的限制产生“自我变化”,虽然程序可以自我更新,但它只是无限接近类似人类的自我意识,不会有真正的自我意识,加上道德模型和情感模型,在经过庞大数据集训练可以和人类一样对话,也只不过是给人的假象。模型训练只会让程序接收 1+1 ,并且输出 2 的可能性无限接近。即使你告诉他 1+1 的本质是什么,下次再问他会回复的有模有样,但是他并不理解 “1+1”的意义,也无法真正理解输出的“2” 是何物,只不过是通过编译预算按照输入内容得出输出结果罢了。现在人们做的努力只能给人无限接近自我意识的假象,即所谓没有“灵性”。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/934357

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX