V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
blackbeardd
V2EX  ›  问与答

ai 离自我意识是不是就差一个道德模型和情感模型了?

  •  
  •   blackbeardd · 2023-04-21 15:53:16 +08:00 via Android · 498 次点击
    这是一个创建于 373 天前的主题,其中的信息可能已经有所发展或是发生改变。
    道德模型应该没有难点吧?人的道德感是由社会塑造的,用道德模型给 ai 跑一跑,让它产生自己的道德观。

    感知方面,视、听、触、嗅这几种感知多少都能做到了。

    难点可能是情感模型?因为很多神经递质到现在好像都没有完全研究明白吧。

    等神经递质完全研究明白了,再由道德+情感来驱动这位史上最博学的“生物”的行为,想想还是有些兴奋的。

    ps:瞎想的,轻喷。
    shendaowu
        1
    shendaowu  
       2023-04-21 20:04:37 +08:00
    据说自指才是自我意识的关键。递归好像就是一种自指。让 AI 读取甚至是修改自己的神经网络也许是个方向。我也是瞎想的,我完全不知道那样做的后果是什么,没准最差的情况是白训练了。或者说 AI 自己把自己玩残废了。也许让 AI 自行决定是否回滚“版本”会更稳定一些。不过不知道 AI 会不会把回滚理解成死亡而不愿意回滚,如果 AI 真有欲望的话。我之前试玩过一下 EVE ,说实话里面哪个身体备份(好像叫克隆体)我还是挺能接受的。
    Sunisgone
        2
    Sunisgone  
       2023-04-22 10:56:47 +08:00
    差得很远,几乎不可能。你没有写程序的经历吧,理解一下编程的本质可能会有与我相同的观点。我时常有这种感悟,给程序敲代码的同时就是给程序的限定,永远不会脱离我这段代码的限制产生“自我变化”,虽然程序可以自我更新,但它只是无限接近类似人类的自我意识,不会有真正的自我意识,加上道德模型和情感模型,在经过庞大数据集训练可以和人类一样对话,也只不过是给人的假象。模型训练只会让程序接收 1+1 ,并且输出 2 的可能性无限接近。即使你告诉他 1+1 的本质是什么,下次再问他会回复的有模有样,但是他并不理解 “1+1”的意义,也无法真正理解输出的“2” 是何物,只不过是通过编译预算按照输入内容得出输出结果罢了。现在人们做的努力只能给人无限接近自我意识的假象,即所谓没有“灵性”。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   5437 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 33ms · UTC 08:50 · PVG 16:50 · LAX 01:50 · JFK 04:50
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.