V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
trungdieu031
V2EX  ›  随想

再论通用人工智能(AGI)可行性

  •  
  •   trungdieu031 · 2023-12-13 11:16:42 +08:00 · 1333 次点击
    这是一个创建于 379 天前的主题,其中的信息可能已经有所发展或是发生改变。

    随着近两年 OpenAI 带火的大语言模型( LLM )的兴起,AGI 可行性的话题重新开始流行起来。最近包括 OpenAI 几位高管,Nvidia 黄仁勋,Elon Musk 等人统统发表高论,言称 AGI 可能在 5 年内实现。我自己觉得这个时间点肯定过于乐观。但毫无疑问 GPT4 等大语言模型的出现让大家把 AGI 实现的预估时间从百年的量级缩短至十年单位的量级。

    我自己目前已把 GPT4 当作日常工具来使用。对其优缺点也略有体会。简单说下我的使用体验。

    • GPT4 已能完全准确理解人类语言的输入。这点在我第一次使用 chatGPT 时最感到惊讶,我之前也是用 过很多的智能语音助手或在线聊天机器人这些,没有一款能达到那时 chatGPT 对语音的理解程度。
    • GPT4 对非冷门问题的解答能力很强。这里非冷门的意思是说,在互联网语料(训练数据)中出现的次数相 对比较频繁,鉴于 LLM 也是基于深度学习发展起来的,这点也不太意外。
    • GPT4 对“冷门”问题是可能会出现所谓“幻觉(hallucination)”问题的。“幻觉”是指生成不真实的内 容。比如 某些不常用的函数 api, 参考文献等。
    • GPT4 是具备较好的归纳能力,一定的分析和推理能力。这点日常使用者应该会有所体会。其中归纳能力在 之前的 NLP 模型中以及能比较好的做到,但分析和推理的能力,尤其是推理能力是 LLM 独有的"涌现 ( emergent )"现象。不管你认为这种分析推理能力是数据空间的关联性也好,还是神经网络节点量变引起的 质变也好,或者是数据被压缩到一个更紧密的表征空间的一种映射方式也好。但这种能力确实出现在了 LLM 中。
    • ...

    以上这些是我个人使用过程中的一些简单体验。当然还有更多,但这里空间太小,我写不下(滑稽~).

    所以这里想抛出的话题是:你认为 AGI 能否实现,可以围绕以下几个点来说下你的看法:

    • a. AGI 是否是可实现的,如果可行,你认为沿着目前的 LLM 继续增大模型参数或增加多模态的方式(scaling up)是否是比较可行的道路?
    • b. 如果你不认同目前纯深度学习这套路径,你觉得还缺哪些东西, 什么样的思路是可行的?
    • c. 你认为目前已有的 LLM 比如 GPT4 继续发展下去后,最好的情况下能达到什么程度,会有什么样的使用场景
    • d. 你认为的达到 AGI 的标准是什么,最好是一些可证伪或者可量化的标准?
    • e. 预测未来很不靠谱。但如果非让你给个时间,你会觉得 AGI 在什么时候会实现?
    • f. ...

    可以肯定的是,如果 AGI 能够实现,那它将是人类历史上的最后一个发明。

    大家踊跃讨论下,也不限于以上几点,相关的都可以。

    8 条回复    2023-12-15 05:57:59 +08:00
    mcV473b9u4GfJG81
        1
    mcV473b9u4GfJG81  
       2023-12-13 12:56:41 +08:00
    真正意义上的互联网出现才多少年,再久远一点,个人电脑才出现多少年。
    想一想小时候玩的和电子科技相关的产品,再看看现在玩的东西,其实科技发展的速度由于处于而当下感觉不明显。
    个人感觉通用人工智能会在定居火星之前出现。
    lDqe4OE6iOEUQNM7
        2
    lDqe4OE6iOEUQNM7  
       2023-12-13 13:04:23 +08:00   ❤️ 1
    目前的 LLM 架构不足以达到 AGI,本质是已有压缩知识,然后随机最大概率的前几个回答,openai 的那个泄露的 Q*项目貌似再往另一个方向,从爆料的信息来看目前能做对小学的数学题,研究人员对它的未来很可观,说明再往答案没有幻觉,而且推理能力可以,要是后面能做到像牛顿发现万有引力,爱因斯坦的那种,才可能,创造新的知识,归纳旧知识,才能通向 AGI
    sentinelK
        3
    sentinelK  
       2023-12-13 13:29:16 +08:00
    先声明,本人无任何计算机科学从业背景,以下言论均为出于直觉的妄加揣测。

    从我个人的学习经历来理解,目前的大语言模型,其实和真正的“智能”(至少是人类理解的智能)应该是有本质的区别(注意,是“区别”,不是“高下”)。我也不认为基于统计学的机器学习模型,能够做到“人类意义上的智能”。

    1 、机器学习模型是挖掘的既有内容的统计学规律,是历史数据的过拟合。人类理解的智能是由既有规律组合推结果。是历史规律的过拟合。这是本质因果上的不同。(历史规律和历史数据是有差别的,规律可以创造,可以猜测,可以人为调整,但历史数据不可以。)
    2 、人类的智能是可传递的,可监视的,可预期的,可修整的。机器学习模型不可(至少是现阶段)。
    3 、因为人类的“学习”是输入“模型”或“规律”,而不是自我做统计学总结。这就导致人脑的功耗很低(一说人脑功率 40 瓦)。而统计学模型的能耗与数据目前看很快就要到达一个瓶颈。


    btw:其实我一直人为,AI 并不需要“强”或者“通用”,现阶段的统计学 AI 已经有其独到的优势了(在很多领域破除了人类一直以为的“最优解”。也在很多领域找到了之前人类并没有发现的统计学关系。比如教育、棋牌、写代码等等)。

    人类最不擅长的就是高效率的挖掘统计学规律。我们应该把现阶段的 AI 理解为一种从统计学角度理解事物的工具,而不是一种拟人的手段。
    他拥有人类认可的“智能”,或者说“思考学习方式”,在我看来并不是一个有吸引力的 feature 。
    sentinelK
        4
    sentinelK  
       2023-12-13 13:44:46 +08:00
    如果要举例的话,现在的大语言模型,就像是一个震动翅膀飞行的机械鸟。(因为既有的数据都是震动翅膀飞行的)
    能飞,也确实带领我们领略了不同的风景。

    但震动翅膀的飞行是飞行的唯一方式么?是像鸟重要,还是飞行重要?我们人类需要的到底是飞行还是像鸟?
    NoOneNoBody
        5
    NoOneNoBody  
       2023-12-13 13:51:11 +08:00
    这两天让 3.5 搞得神经衰弱
    给了个答案,里面有这句:……7*10**6 ,这样就不会超过一百万了……
    tfdetang
        6
    tfdetang  
       2023-12-13 14:29:22 +08:00
    a. 不觉得 AGI 可以通过目前的 LLM scaling up 的方式达到,但目前的方式极大的促进了 AI 的商业化,促进了 AGI 的到来;
    b. 目前的这套方案规模再大,本质上还是一个自回归的模型;需要一个明确的指令然后根据上下文和已输出的部分来预测下一个 token ; 直觉上这个和人类思考的模式还是有很大不同,虽然现在有一些通过多 agent 的思维链,思维网的方式来复杂化思维过程,但感觉并不是本质上的改变
    zzboat0422
        7
    zzboat0422  
       2023-12-13 15:35:13 +08:00
    人类最强的是“脑补”功能,基于输入的少量信息,再配合记忆进行脑补补全。这跟现有的 chatGPT 是完全不同的思考方式啊。
    metalvest
        8
    metalvest  
       2023-12-15 05:57:59 +08:00 via Android
    幻觉问题还是比较严重的
    大家可以试试这个提示,基本上各家号称有搜索能力的大模型得到的结果都是胡编乱造。
    提示语:
    请模仿一下:注意看这个男人,这种小帅小美式解说风格,讲解电影《交通费》。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5473 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 08:41 · PVG 16:41 · LAX 00:41 · JFK 03:41
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.