突发感触:人类文明已然黄昏。

2023-03-01 11:46:48 +08:00
 tl228

1.人工智能就像一列高速列车,当它远远地驶来时,人类甚至认为它静止不动。当它呼啸而过时,你我却没机会再追上它的步伐。

2.那个呼啸而过的瞬间发生在 2016 年 3 月 15 日,自从 AlphaGo 战胜了第一棋手李世乭以来,人类在围棋领域已无超越 AI 的可能。现在,AI 甚至成为了训练棋手的工具,人类棋手的表现与 AI 的下棋手法越接近,棋艺就越精湛。

3.新的“摩尔定律”已经出现,人工智能的能力每 18 到 24 个月就会翻倍,这已不再仅仅是晶体管数量的堆叠,而是智慧的指数级提升。

4.人类一直在探索外星人、新物种,但我没想到“新物种”竟然是人类自己制造出来的。

5.对人类而言,AI 就是我们点燃一把火,当擦出火花的一瞬间,就再无扑灭的可能了。

人类文明已然黄昏。

8631 次点击
所在节点    问与答
93 条回复
zooo
2023-03-02 13:44:18 +08:00
@kop1989smurf
过于扣字眼就没意思了,非要说“人类意识”,那 AI 肯定无法拥有了,因为已经处于不败的地位了,人类意识首先必须是人.....AI 永远不是人,所以 AI 失败....

正如我最早的评论,复杂系统涌现的独特属性,如人类的“自我意识”,更复杂的 AI 也会诞生自己的“自我意识”,这里的“自我意识”只是借用过来的词,毕竟要得给 AI 产生的某种复杂属性找个定义词。

“不止依赖经验学,我们还依赖科学。”

那现阶段的 AI 不是科学吗?科学非要一定必须可预测吗?

同意这句话“是数学家们通过人类的神经传导受到启发,从而得到的人工神经网络。并不是相反”,科学家模仿人创造的 AI ,AI 就弱于人类吗?

不是。人们往往有一个根深蒂固的想法,认为神或者人类的造物主,创造了人,神的能力就远超过人,人对神充满了崇拜。然而,事实可能是,神创造了人,人一开始或许不如神,但是随着进化,却变得更强大,现代人或许已经已经比最初创造我们人这个物种的神更加强大。因此,人根据人类的神经系统创造了 AI ,AI 随着进化必然会远超过人。

总结,就是打破,我创造了你(AI),你就比我弱小的固有想法。需要承认,所谓的神创造人,但是人却会比神更强大,人创造出 AI ,但是 AI 会比人更强大。

因果论,这个确实是,不管是从经典力学角度得到的复杂系统非线性导致的简单因果论的不成立,还是从量子力学角度的概率性都能得到简单因果论都不存在了。
zooo
2023-03-02 13:46:18 +08:00
@zooo 语言都不通,纯瞎扯。
kop1989smurf
2023-03-02 13:51:46 +08:00
@zooo #81 我大概理解你想表达的了。如果把眼光放在“科学到底是什么”,“逻辑到底是什么”,以及“意识到底是什么”这个层级,我赞同你的内容。

只能说我们讨论的阶段不同。
我想表达的是眼前,也就是经典物理思维下的 AI 应用,从这个视角看,目前 AI 还有很长的路要走。

但相反,如果我们从“真理”的视角去分析,目前 AI 的“逻辑”或者说“模型”,比我们人类大脑更为先进与接近真正的“现实”也说不定。我是同意这种说法的。

而且我也认为这两种视角并不冲突。
zooo
2023-03-02 14:01:45 +08:00
@kop1989smurf
同意,目前 AI 可能还不具备意识,或者说不够复杂。但是,我相信 AI 的进化速度会非常快,如果整体人类都不加干预的话,即任由 AI 技术自由发展,很快 AI 可以替代人,甚至是艺术创造方面。

如果从非常长远的角度说,人类必然灭亡,那没有任何意义,讨论当前近十年的可能性,对于当下的我们来说更有意义。

假如说 AI 产生了自我意识,那么人具有所引以为傲的自我意识和所谓的灵魂并不存在,这将产生巨大的存在危机,尤其是在心理层面。
lookStupiToForce
2023-03-02 15:08:13 +08:00
楼上有一堆门外汉在提理论,还让 op 去补理论知识
但怕不是他们懂的理论都还停留在科普层次

来来来,我虽然也停留在科普层次,但挺喜欢看各种“证明”的,可以给你们这些井底蛙多带来一些额外的理论知识
-
-
-
-
-
已证明:"神经网络可以在一个紧致集( compact set )上逼近任意连续函数。"
"""
作者:若羽
链接: https://www[.]zhihu[.]com/question/408690594/answer/1443267762
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

关于神经网络的争论。

Pros:1989 年无限逼近理论证明了,神经网络可以在一个紧致集( compact set )上逼近任意连续函数。近些年,谷歌的科学家证明了,当神经网络变得无限宽时,通过高斯过程描述该集成,它的均值和方差在整个训练过程中便能被计算出来。北大的王立威教授对 NTK 的研究认为,网络足够宽的情况下,神经网络的非凸优化变成了类似核模型的凸优化。然后,Richard Sutton 说,任何依赖先验专家知识的智能实践必然失败,以硬件支撑算力的暴力美学才是出路。

Cons:一大批生物认知智能的科学家和包括朱松纯在内的计算机科学家都认为传统算法(包括神经网络算法)的视觉实践遇到了“性能墙”,必须先把生物智能作为一个阶段性的求解目标。贝叶斯网络的发明者 Judeal Pearl 也认为大规模的经验主义模型只是挖掘数据的相关性,而非探究因果性。最早研究神经网络的那些人如 Hinton 、LeCun 等,希望找到不依赖反向传播的算法,也就是说 Hinton 已经多少动摇了年轻时候的观点,即认为隐层中间的梯度传导可以模仿大脑的神经元机制。

深度学习社区今天一直在强调 System2.0 ,换言之,他们也在思考出路。如果智能是指高效计算以及靠存储模型记忆结构化的人类知识数据,目前的人工智能已经做得足够好了,这种成就的获得依赖于神经网络及其带动的 GPU 、TPU 技术发展;但如果智能指的是归纳推理、哺乳动物的感官技能、形成人类社会意识形态衍生出来的道德伦理与价值取向,那是真的强行难为之事。

编辑于 2020-08-30 15:40
"""

换句话说,如果你认为人脑产生的智能可以理论等效成一个一个的 f(x1, x2, x3...)连续函数黑盒,那么放上足够多模拟神经元的神经网络也可以做到。
-
-
-
-
-
强假设:"泛化能力是在指令数量超过一定程度之后自动出现"
"""
复杂推理能力的来源和泛化到新任务的能力

我们关注 code-davinci-002 和 text-davinci-002 ,这两兄弟是第一版的 GPT3.5 模型,一个用于代码,另一个用于文本。它们表现出了三种重要能力与初代 GPT-3 不同的能力:
......
泛化到没有见过的任务:当用于调整模型的指令数量超过一定的规模时,模型就可以自动在从没见过的新指令上也能生成有效的回答。 这种能力对于上线部署至关重要,因为用户总会提新的问题,模型得答得出来才行。
......
利用思维链 (chain-of-thought) 进行复杂推理: 初代 GPT3 的模型思维链推理的能力很弱甚至没有。code-davinci-002 和 text-davinci-002 是两个拥有足够强的思维链推理能力的模型。

......
对没有见过的指令做出反馈的泛化能力是在指令数量超过一定程度之后自动出现的,T0 ( Sanh. et. al. Oct 2021. Multitask Prompted Training Enables Zero-Shot Task Generalization )、Flan ( Wei et. al. Sep 2021. Finetuned Language Models Are Zero-Shot Learners ) 和 FlanPaLM ( Chung et. al. Oct 2022. Scaling Instruction-Finetuned Language Models )论文进一步证明了这一点。
......

......

这篇文章中的这些说法更像是假设 (hypothesis) 还是结论 (conclusion)?

( 1 )复杂推理的能力来自于代码训练是我们倾向于相信的假设
( 2 )对没有见过的任务泛化能力来自大规模指令学习是至少 4 篇论文的结论
( 3 ) GPT-3.5 来自于其他大型基础模型,而不是 1750 亿参数的 GPT-3 是有根据的猜测。
( 4 )所有这些能力都已经存在了,通过 instruction tuning ,无论是有监督学习或强化学习的方式来解锁而不是注入这些能力是一个强有力的假设,强到你不敢不信。主要是因为 instruction tuning 数据量比预训练数据量少了几个数量级
( 5 )结论 = 许多证据支持这些说法的正确性;假设 = 有正面证据但不够有力;有根据的猜测 = 没有确凿的证据,但某些因素会指向这个方向

作者:OneFlow 一流科技
链接: https://juejin[.]cn/post/7181405978447839269
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
"""
kf135791
2023-03-02 15:26:49 +08:00
以我的智力,无法理解,也无法预测
PureWhiteWu
2023-03-02 15:31:10 +08:00
建议等什么时候 AI 能准确理解产品经理 /老板的需求再说吧……
yunye
2023-03-02 15:35:35 +08:00
有毛病建议直接辞职回老家种红薯
lookStupiToForce
2023-03-02 15:39:26 +08:00
另外非要把实现人类的“智能”才算“智能”,或者认为人类的“智能”是种生物特例,实在是个“人类中心论”的傲慢表现
我倒挺喜欢银河系漫游指南里的说法,“地球上第一聪明的是老鼠,第二是海豚,第三才是人类”🤣

现人类只不过先一步有了记录文明的工具,能承袭前人海量的知识与资讯,加上长期由自然演化(荒野求生物竞天择)+社会演化(反社会个体、不遵守社会规训的个体难以产生后代)预训练的、由多种功能分区组合而成的大规模生物神经网络,才能有如今的“智能”(这里不欢迎唯灵主义, [极端唯心主义的傻瓜 - 400🐶] )

真要论模拟出“智能”,机器的神经网络其实只要能完美模拟这最后一个“生物神经网络”的基础功能就行,然后就是逐步实现加大规模并让功能分化,然后加上规训和淘汰规则。

另外人类文明的黄昏也可以是智械黎明啊🤣机飞为什么不能是一种出路
或者全人类变成机朴的手办,在由机朴运维的伊甸园里被饲养,无忧无虑地裸奔🤣
cwcc
2023-03-02 15:49:09 +08:00
人类文明黄昏的前提是,人类无法继续发展科技,或者出现了无法由人类控制的事物。

但现在的状况是,AI 只会进一步加强统治者的权利和控制力度,不会让其自由发展。就算 AI 算出来的结果是无 zf 主义,真正的权力掌握者也不会放权的。所以现实结果的发展就是,我可以拔网线让你投降。AlphaGo 战胜棋手只能说明计算机的智商不高,效率超高。目前的 AI 仅仅是突破人类某个领域的极限而已,远达不到拐点。

人会杀掉彼此的威胁同类,也有能力杀死这个由人创建的新生命。只要它不是不可湮灭的,就只是现有极权世界的延续而已。只有突如其来的星际灾难或者有新的灵魂控制手段让除了自己之外的所有人变成傻子,这种无法控制的局面才是真正人类文明的黄昏。
c8c
2023-03-02 22:18:49 +08:00
这段话是 ChatGPT 编造的么?
raymanr
2023-03-03 09:31:32 +08:00
@zooo 我的一点感想哈, 我记得有这么一个设想, 说猴子在打字机前面打的字够多, 也是有可能打出哈姆雷特的. 我觉得可能现在就是这样的情况:

人类在 AI 方面的技术≈猴子, 强 AI≈哈姆雷特,

人类还无法解释智力产生的本源, 所以只能在打字机前疯狂打字, 所幸的是猴子够多, 我们还有电力驱动的猴子, 现在我们终于打出了莎士比亚的一首诗. 所以我们决定投入更多猴子, 并期待哈姆雷特在某个时间点诞生.
rouxi
2023-03-03 10:13:16 +08:00
先秦之后,国内智慧就再无进步了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/920114

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX