突发感触:人类文明已然黄昏。

2023-03-01 11:46:48 +08:00
 tl228

1.人工智能就像一列高速列车,当它远远地驶来时,人类甚至认为它静止不动。当它呼啸而过时,你我却没机会再追上它的步伐。

2.那个呼啸而过的瞬间发生在 2016 年 3 月 15 日,自从 AlphaGo 战胜了第一棋手李世乭以来,人类在围棋领域已无超越 AI 的可能。现在,AI 甚至成为了训练棋手的工具,人类棋手的表现与 AI 的下棋手法越接近,棋艺就越精湛。

3.新的“摩尔定律”已经出现,人工智能的能力每 18 到 24 个月就会翻倍,这已不再仅仅是晶体管数量的堆叠,而是智慧的指数级提升。

4.人类一直在探索外星人、新物种,但我没想到“新物种”竟然是人类自己制造出来的。

5.对人类而言,AI 就是我们点燃一把火,当擦出火花的一瞬间,就再无扑灭的可能了。

人类文明已然黄昏。

8631 次点击
所在节点    问与答
93 条回复
zinete
2023-03-01 23:11:51 +08:00
物理学不存在了?
fackVL
2023-03-01 23:19:09 +08:00
楼主我觉得你这种情况其实有个词可以准确形容:中二
levelworm
2023-03-02 01:45:56 +08:00
@kop1989smurf 我还是觉得 ai 和这些不完全是一个东西。当然现在 ai 还很弱,不能自学习。
areschen
2023-03-02 04:46:11 +08:00
格局太小,参考我发的贴子

https://www.v2ex.com/t/914122
WebKit
2023-03-02 08:47:21 +08:00
然而,不久前,人类棋手刚刚战胜了 AI 。
yogogo
2023-03-02 09:06:45 +08:00
洗洗脚吧,和技师聊天快活多了
kop1989smurf
2023-03-02 09:09:11 +08:00
@levelworm #63
我们人类其实也有类似的统计学模型,我们管他叫“口诀”,比如九九乘法表。
一个会背乘法表的小孩,你说他是会乘法呢,还是不会乘法呢?

你说他不会,只要是 10 以内的整数乘法,他都能输出 100%正确的答案。(机器学习 AI 的过拟合特性)
你说他会,他其实并不理解“乘法”真正的数学意义。导致超过九九乘法表范围的乘法,他会凭规律揣测。比如 1*1 到 1*9 都是等于第二个数,所以 1*10 肯定是 10 ,1*11 ,肯定是 11 。(机器学习 AI 的输出不可靠性,逻辑不可见性)

只不过,我们的模型,相比 ChatGPT 的 17.5B 个参数来讲,因为人脑并行处理与记忆力的限制(参数过少),显得过于拙劣了而已。

但我们的模型也有优势,模型可见,可以输出,可以继承,可以传导。
xuanbg
2023-03-02 09:26:09 +08:00
人工智能?早着呢,快醒醒,别在这里见风就是雨了。
teasick
2023-03-02 09:52:02 +08:00
人类的黄昏很可能是因为政治,而不是因为科技。

不过 AI 可能带来大众群体的黄昏,越来越多的岗位被智能化机器替代,大多数人类在接下来的几十年~上百年里会没有存在的意义。
fregie
2023-03-02 10:09:33 +08:00
我也认为人类文明黄昏快要到了,但是是因为人类寿命有限,如果不能突破人类寿命上线,文明很难进步.
必须要踩在巨人的肩膀上才能让人类文明更上一层楼,但是巨人越来越高,高到人类一辈子都很难爬上去的时候就没办法继续进步了..
alanse7en
2023-03-02 10:32:55 +08:00
你们但凡真的对 AI 或者说机器学习感兴趣,去学习一下理论知识行不行啊,天天在这扯得跟神学一样
dolorain
2023-03-02 11:51:24 +08:00
降临派是什么下场?
zooo
2023-03-02 12:03:58 +08:00
不同于上面大多数人的观点。

先表明下,本人已经深度学习领域学习三年多,某 985 读研,自己炼丹。

我是同意 op 的看似神学的观点,人类文明似乎已经进入黄昏了。

简单说下原因:

说下 #4

你会因为显微镜能看到细胞核而肉眼不行,就认为“人类黄昏”了么?
你会因为你自己跑不过汽车,就认为“人类黄昏”了么?
你会因为你自己不会飞而飞机可以,就认为“人类黄昏”了么?
@kop1989smurf
显微镜的发明,完全是人类可以理解的范围内,从一开始的光作为探测器,到电子显微镜,采用更小的粒子能够获得更精确的探测,这些都是人类能理解的范围。

另外汽车跑的很快,也属于人类很容易理解的范围,因为汽车的零件都是各部分简单组合成整体,并且相当多的组合比较线性。

飞机同样也是。

最近几年深度学习已经验证了连接主义在巨大算力和数据的帮助下已经取得前所未有的胜利。

想想深度学习中采用上百亿的参数形成的网络,已经非常接近人脑的细胞连接,再大量数据和算力的帮助下,已经能够自己学习自己总结出模式,甚至于产生一点自我的意识,该技术完全不同于上面所说的飞机、汽车、显微镜,最大的区别就是参数量非常非常大,超过上面说的技术的上百亿,如果说一个飞机里面有效参数为几百万、汽车和显微镜中参数为几万,那么深度学习已经参数量级上远超这些。

或许有人会说参数多就一定厉害了吗?

现实情况下得到的结论就是:算力足够的情况下,确实是。

量变产生质量。

很早的一篇论文叫 More is different. 所说的便是不同学科由于研究的尺度不一样产生不同的学科属性。简单理解就是,虽然化学中的化合物是由物理中研究的基本粒子组成的,但是不能简单说将物理中的基本粒子研究透彻后,化学就自然解决了,如同三体问题一样,当两个天体形成系统时,非常容易预测其轨道,但是当数量达到三个时,便产生了质的改变,从一个简单可预测的系统,变成了一个混沌不可预测的系统,当然不是完全不可预测,而是说无法精确预测,短时预测还是可以的,这点也就是天气预报无法长期预测的原因。

物理中的粒子当聚集到一定规模后便产生了新的属性,便属于化学学科。

化学进一步当化学物质足够多,产生了生物学科,等等。

这便是哲学中所说的量变产生质变。

现在想想三体问题与一个经典道家话非常像,即所说的,道生一,一生二,二生三,三生万物。

不管是量变产生质量,还是道家上面那一句话,还是 More is different ,其实都在说一个东西,当简单事物通过聚合到一定规模,形成足够复杂的系统后,便会产生新的属性,而且孤立的简单事物完全不具备该属性。

那么,也就可以想想人本身这个复杂体,人具备自我认为的情感和自我意识,完全属于是复杂系统涌现出的新属性,并不具备任何神秘主义意义上的特殊性。同样的道理,当 AI 中的参数量足够大,并且这些参数形成的计算单元具有连接与更新功能时,便会组成一个可能比人还要复杂的系统,该系统也同样会涌现出新的属性,当复杂体与人的规模相当时,人或许可以理解,但是当复杂体参数量超过人的神经个数时,或许会诞生人类无法理解的属性,如同猫无法理解人的高级思维一样,人也无法理解 AI 。

有意思的是,或许存在一个规律便是,更复杂的系统能够理解比其简单一些的系统,理解本身的含义便是模拟,或者说经历,复杂系统中是能够用其一部分来模拟简单系统,从而达到所说的理解。

如果上面所说的成立,那么未来可能会诞生的 AI 复杂度远高于人类,AI 本身也是可以理解人类的情感和所谓的自我意识,但是 AI 本身由于巨大的复杂性产生的新属性,我们人类永远也理解不了了。

此时,便是人类文明的末日。

虽然人类文明到达末日,但是从更高意义上所说的智慧体,还存在,不过这个智慧体被硅基 AI 所代替。

之前看过一本书,讲得尺度更大,最终结局可能是宇宙觉醒,即智慧体几乎将宇宙量级的物质都连接到一个系统,注意现在的宇宙并未进行有效连接,相当多物质仅仅是简单堆叠,和智慧体的复杂连接不一样。

此时,宇宙便觉醒了,产生了宇宙级别的“自我意识”,借用“自我意识”这个词,其实产生的新属性,人更甚至将来的 AI 都无法理解,因为将来的 AI 也注定灭亡。
zooo
2023-03-02 12:09:13 +08:00
@zooo 量变产生质量 -> 量变产生质变。

有点乱,估计没人能看下去,不过写完后,也不想删了,就发了,留个痕迹吧。
kop1989smurf
2023-03-02 12:25:32 +08:00
@zooo #73 "再大量数据和算力的帮助下,已经能够自己学习自己总结出模式,甚至于产生一点自我的意识",这我不能同意。

现阶段的神经网络 AI ,只是通过现代的统计算法+算力,发现了并总结了我们人类无法靠脑力统计出的规律而已。这并不是“意识”。
这和我们没有发现细菌之前,认为疾病是上帝的惩罚没有区别。

我不否认如今统计学 AI 的革命性,更不否认其在未来十年内,就会改变我们的生活方式。
我举以上的例子,恰恰是想表达统计学 AI 和计算机、互联网以及以上机械化工具一样,都只是会改变我们的生活方式与生产力效率而已。他并不会动摇人类的主导以及社会地位。

毕竟目前的统计学模型依然无法解决我在#67 提出的问题。既过拟合、输出不可靠(不可预测)、模型不可视。
kop1989smurf
2023-03-02 12:36:28 +08:00
@zooo #74 总体来说,只要仍然是只依赖统计学的 AI ,那就一定不会动摇人类的主导地位。

当然,你可以说“量变引起质变”,但仅仅是一厢情愿而已,并没有证据能够支撑此观点。
因为统计学结果只能无限接近事实,并不能成为事实。

因为在我们现在的认知中,这个世界是因果论的,不是相关论的。
统计学只解决相关性,不解决因果性。
zooo
2023-03-02 12:53:47 +08:00
@kop1989smurf
#67 你在试图把当前模型理解成以往一些事物,比如飞机、汽车,你觉得理解了部分比如轮子是怎么滚动的、发动机怎么产生动力的,通过组合就理解了飞机和汽车。但是,我当前的深度学习模型本身就是因为其参数量大而不可理解,AI 已经非常类似人类了,过拟合、输出不可靠(不可预测)、模型不可视,这几点用在人的身上也完全成立。

另外,“现阶段的神经网络 AI ,只是通过现代的统计算法+算力,发现了并总结了我们人类无法靠脑力统计出的规律而已。这并不是“意识”。”

这就有意思了,如果突然有外星人来到地球上,看到人类,发现人类不过是由大量细胞组成的,而其大脑也是通过不同细胞连接的,然后给人类下定义,人类只是虫子,不具备自我意识和智慧。那么你该怎么反驳?

“只要仍然是只依赖统计学的 AI ”

这也是错误的,目前来说深度学习中的确有借鉴统计学的知识,但是据我了解其实统计学的知识只占了一小部分。


@kop1989smurf

非常不同意所谓的因果论,因果论只是简单的经典力学的外延,比如小球为什么会加速,是因为有力作用到其上,但是复杂系统显示出的非线性,不是简单的由 A 得到 B ,由 B 得到 C ,这样的线性方式。而是巨大因素(参数)共同作用导致的结果 D ,甚至试图找到主要的原因都变得非常困难,只能说是有可能的十几种原因导致。
zooo
2023-03-02 12:55:19 +08:00
现阶段的神经网络 AI ,只是通过现代的统计算法+算力

"只是"有意思,人也只是由底层的细胞,加细胞组成的复杂的器官组成的,为什么会产生所谓的自我意识呢?
HENQIGUAI
2023-03-02 13:10:26 +08:00
李自然?
kop1989smurf
2023-03-02 13:19:53 +08:00
@zooo #78 "看到人类,发现人类不过是由大量细胞组成的,而其大脑也是通过不同细胞连接的,然后给人类下定义,人类只是虫子,不具备自我意识和智慧。那么你该怎么反驳?"
不需要反驳,因为主体不同(一个是“人类意识”,一个是“外星人意识”),对应的“意识”的定义也不同。所以外星人的评述是正确的。同理,我的描述逻辑一样,我认为现阶段的 AI 不具备“人类意识”。

与此同时,并不是架构相似,结果就一定相似。
比如你文中使用了“非常类似人类”等类似描述,这并不是其有“人类意识”的充分条件。
你对于我的“只是...”逻辑的怀疑,也局限于此。句式相近,不等于逻辑一样。

然后就是“过拟合、输出不可靠(不可预测)、模型不可视,这几点用在人的身上也完全成立。”
首先你弄反了因果逻辑。是数学家们通过人类的神经传导受到启发,从而得到的人工神经网络。并不是相反。
然后,就是人类并不是过拟合的。人类有拟合性没错,因为我们很大程度上依赖经验学,这点和目前的 AI 很像,但我们不止依赖经验学,我们还依赖科学。

至于说“因果论”这个领域,这就是为何我要加“我们”这个主语的原因。因为讨论的是应用领域。这个世界在“应用”这个领域里,还是遵循因果论的。
如果你把他转换成科学领域,那么其实这个话题就不需要再讨论了。因为根据量子力学的既有理解,“因果论”压根就不存在。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/920114

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX