1
shendaowu 2023-04-21 20:04:37 +08:00
据说自指才是自我意识的关键。递归好像就是一种自指。让 AI 读取甚至是修改自己的神经网络也许是个方向。我也是瞎想的,我完全不知道那样做的后果是什么,没准最差的情况是白训练了。或者说 AI 自己把自己玩残废了。也许让 AI 自行决定是否回滚“版本”会更稳定一些。不过不知道 AI 会不会把回滚理解成死亡而不愿意回滚,如果 AI 真有欲望的话。我之前试玩过一下 EVE ,说实话里面哪个身体备份(好像叫克隆体)我还是挺能接受的。
|
2
Sunisgone 2023-04-22 10:56:47 +08:00
差得很远,几乎不可能。你没有写程序的经历吧,理解一下编程的本质可能会有与我相同的观点。我时常有这种感悟,给程序敲代码的同时就是给程序的限定,永远不会脱离我这段代码的限制产生“自我变化”,虽然程序可以自我更新,但它只是无限接近类似人类的自我意识,不会有真正的自我意识,加上道德模型和情感模型,在经过庞大数据集训练可以和人类一样对话,也只不过是给人的假象。模型训练只会让程序接收 1+1 ,并且输出 2 的可能性无限接近。即使你告诉他 1+1 的本质是什么,下次再问他会回复的有模有样,但是他并不理解 “1+1”的意义,也无法真正理解输出的“2” 是何物,只不过是通过编译预算按照输入内容得出输出结果罢了。现在人们做的努力只能给人无限接近自我意识的假象,即所谓没有“灵性”。
|