- 经验
- 1198
- 分贝
- 0
- 家园分
- 2396
- 在线时间:
- 0 小时
- 最后登录:
- 2007-10-29
- 帖子:
- 602
- 精华:
- 0
- 注册时间:
- 2007-10-29
- UID:
- 192143
注册:2007-10-294
|
目前,借助AI的发展,人类对自身的外在世界认识能力的上限有了无限的假想。由此, 我们可以问这样一个问题:借助AI,人类可以达到康德说的认识的“彼岸”吗?
#1 问题的解答
这个问题,笔者和不少学界大佬、学术同人进行了多次探讨。大家说法不同,归纳起来, 最主要的典型说法有否定论和肯定论两种。
“否定论”认为,借助AI,人类无法到达“彼岸”。理由有:
康德的限定:从康德的观点来看,人类认识的“彼岸”是一个哲学概念。它是超越人类感知和认知能力的绝对真理的存在。人类永远无法完全认识事物的本质。这是人类认识的一个基本特征。
AI的局限性:目前,AI虽然在处理信息、数据分析、模式识别等方面取得了巨大进步, 但它仍然是在人类设计的算法和知识的框架内运行的。AI的“智能”本质上是基于算法和数据的。它无法像人类一样具有主观意识和情感体验,更无法触及康德所说的“自在之物”。
和否定论相反,肯定论认为,借助AI,人类可以到达“彼岸”。理由有:
认识论的突破:康德的认识论带着明显的时代局限性。人类认识上的局限从本质上讲是人类本身的遗传决定的。随着时代发展,特别是科技水平的提高,我们为什么自己去设定
一个认识论或者哲学意义上的限定呢?
AI的假想:毫无疑问,就目前或者说可以预期的状况上来看,AI的“智能”是基于算法和数据的,是一种数字智能。我们甚至不能预测AI何时会具有与人类一样的情感和意识, 有生命体特有的具身智能。但是,AI的能力发展有着几乎无限的可能性。这种可能性可以由AI本身发展的历程来证明,而且更重要的是AI有可能也有能力习得人类的具象智能, 突破目前基于算法和数据的数字智能的局限(我们在下文有详细的分析)。
除了否定和肯定论之外,还有一些想法也很有意思。
●“怀疑论”。这种观点怀疑到达“彼岸”的可能性。
●“漂移论”。这种观点认为,所谓“彼岸”并不是固定的,它会随着人类认识的发展而有相应的“漂移”,与人类认识能力能够触及的范围永远保持一定的距离。
●“无限接近论”。这种观点认为人类认识只能无限接近彼岸。
上面三种观点中,怀疑论偏向肯定论,只是信心的问题。漂移论是一种变相的否定论, 用彼岸的漂移来否定人类到达彼岸的可能性。无限接近论看起来有点像肯定论,但本质上还是倾向于否定论,因为无限接近意味着终究到不了彼岸。
至此可以说,对于“借助AI,是不是能够到达彼岸”的问题,还是持否定论者占多数, 肯定论少数。我以为其中最主要的原因还是人们普遍地认为,AI目前数字智能发展的思路有着明显的局限性。
有一个例子可以让大家看到问题的痛处。如果要解决四色问题,计算机需要进行21000次的运算,用现在的超级计算机进行运算,需要多少年呢?10275年。宇宙至今存在多少年呢?1010年①。也就是说,很可能宇宙都灭亡了,我们的超级计算机还没有解答四色问题。
解决这种复杂问题,AI发展的出路在哪里呢?我觉得仅仅依赖硬件或者算法的突破来推动AI数字智能的持续性发展并不明智,而通过人类智能的研究突破,让超级AI具备人类的具身智能,倒是有可能,并带来AI的革命性突破。下面,我们首先来简单地说一下算法和硬件, 然后结合算法本身的局限性说一下具身智能特点及其可能的程序化的途径。最后,我们想从自己的实验成果出发证明,意识的内在含义及其在超级AI上实现的可能性。
#2 超级AI的发展途径
首先,我们假定超级AI是基于目前的计算机,而不是基于生物细胞等的智能体。计算机的核心就是算法。就现有的资料来看,第一台商用计算机每秒可计算103条指令(费伦蒂马一号)。现在超级计算机每秒可计算1018条指令,TPUPod的超级计算机的设计,其计算能力是每秒1017次运算(2018年),这种计算能力和人类大脑理论上的1017次“运算”几乎一致。硬件方面,直到2025年,根据摩尔定律,芯片上的电子元件的数量,每两年还可以翻一倍。另外,还有量子计算的能力。尽管如此,麻省理工学院物理学家塞里·劳埃德估计,计算机的计算极限是每秒1051次②。
如此庞大的算力能满足或实现超级AI吗?事实证明这是不可能的。例如,类似四色问题这样的超级复杂问题,即使是现有或可预见未来的计算能力,也显然无法胜任。美国加州大学伯克利分校的科学家、人类兼容人工智能中心主任斯图尔特·罗素断言:“光靠速度是无法带给我们人工智能的。”此外,算法本身的问题也是一个死局。图灵曾提出的“停机问题” 就可以让计算机陷入“死循环”。
除了以上的分析以外,目前算法本身的局限性也限定了超级AI的发展。
第一个局限就是算法的取向问题。比如,最简单的超级AI也需要实现机器视觉功能, 以保证AI具有最基本的视觉信息输入。就目前来看,机器视觉的基点是外在物理世界。基于这种取向,即便是简单的一个画面也需要巨量的计算,更不用说动态或变化的画面了。
相比之下,人类视觉的基点是“心理世界”,这是人类基于遗传、个体经验和外在刺激物共同构建的世界。举个例子,物理世界中的距离是用米等标准度量单位进行度量的,而在心理世界中,距离是知觉意义上的,并不等于物理距离。因此,在物理世界中,很难计算或模拟心理世界中的知觉恒常性。同样的道理,一个画面中,四个人在传球,如果中间走过一个黑人, 传球的四个人可能会对这个黑人视而不见。这种视觉盲现象仅存在于人类的心理世界中。
要解决类似于视觉恒常性、视觉盲等诸多人类知觉中的问题,使超级AI具备人类知觉能力, 一种最基础的具象智能就需要将现有的机器视觉从以物理世界为基点转换为以心理世界为基点的智能算法。例如,在算法中考虑人类注意能力的特征,让知觉的外在世界各视觉要素基于人类注意特点进行权重分配。需要注意的视觉要素应具有更高的权重,而不需要注意的要素则可以简单忽略。按照“探照灯理论”,整个画面的视觉要素应有一个权重梯度的分布。这种考虑到人类注意特征的算法不仅可以处理或表征“视觉盲”现象,更重要的是,由于有了视觉要素权重梯度的分布,可以节省算力。
第二个局限就是算法的理性问题。我们可以设想由超级AI来参与心理学中典型的Asha实验。结果显然是超级AI不会像人类一样出现从众现象,因为这是由算法中的理性决定的。但是,如果超级AI都是如此理性或“正确”,那么这样的超级AI能够被人类接受吗?这恐怕是另一种更棘手的“恐怖谷效应”。
从众现象显然是一种有趣的现象。人类有头脑,智力正常,为什么会莫名其妙地从众呢?其中的奥秘也许更为有意思。人类之所以强大,战胜了各种在某些能力上远超自己的动物, 并且灭绝了个子比自己高、力气比自己大的尼安德特人,其原因之一就是人类会抱团,形成一个个的团体组织来进行各种生存竞争。而从众恰恰是组织团体构成的核心要素之一。从众这种搞笑的现象居然是人类生存的基本要素。
因此,目前算法的理性或“正确”似乎成了一种并不实用的奢侈品。在社会交往层面, 超级AI需要具备与人类相同的社会交往能力,一种生存意义上的具身智能。只有具备这种能力,才有可能考虑人类与超级AI这两个物种在地球实现共存共荣的可能性。
第三个局限就是算法的“浅性”问题。2024年,一项研究对人类个体和大语言模型(LLM)的心理模型能力进行了测试。1907名人类个体和ChatGPT4等五种LLM参与了理解错误、间接请求等七项心理模型能力的测试。结果表明,在识别间接请求等多项测试中, 有些LLM的成绩高于人类被试③。
这种较好的成绩能否表示LLM在心理模型能力方面高于人类?也许不能,因为LLM对语言的理解仅停留在字面。根据乔姆斯基的语言理论,人类语言的表达和沟通有两个层次:一个是表面的,另一个是深层次的。比如,一个人对你说“你好”,表面上这是一种问候,但深层次的分析可能表明这个“你好”带有讽刺意味。
正因为人类拥有这种深层次的语言理解能力,对问题或回答存在某种不确定性,导致测试分数较低。这项实验结果告诉我们一个事实:现有算法构建的智能体在语言沟通能力上相当有限,仅停留在表层理解这一层面。现实中,人类的交往及其大脑的作用要复杂得多。要解决这种复杂问题,可以借助我们提出的SUT理论模型,从情境(S)、用户(U)和任务(T)三个维度来分析问题,并最终实现程序化。
最后一个局限是算法在解决问题方面的能力。毫无疑问,在解决问题方面,目前的AI有许多值得炫耀的成绩。采用前向搜索的算法进行决策,用强化学习来进行学习和评估,AlphaGo在围棋领域几乎所向披靡,战胜了一个又一个世界冠军。然而,这种狭义AI或者说工具式AI在解决特定问题上的超凡能力,也许并不能说明什么。如果建立一个类似于人类智商测试的标准化智力测试工具,这种工具式AI的智商水平可能并不高,因为它缺乏通用性。而且,这种工具式AI需要大量算力来维持。
那么,人类是如何解决问题的呢?翻看普通心理学中关于解决问题的章节,你会发现人类解决问题的方法中,顿悟是最神奇的。在最新的大百科全书中,顿悟被描述为“对事件的模式和意义作突发性的重组,从而使问题得到解决的方法”。在动物实验中,猩猩要吃到挂在高处的香蕉,但够不着,它走来走去,突然恍然大悟,把房间里的箱子叠起来,最终拿到香蕉。格式塔心理学家如克勒认为,人类解决问题主要依赖这种顿悟。阿基米德原理、苯环结构的发现都可以说是顿悟的结果。
尽管如此,我们仍不完全清楚顿悟发生的条件、影响因素及其相关的脑和神经机制。然而,顿悟的突然性和解决问题的针对性是非常明确的。如果有一天我们发现了其中的规律和机制,可能会开创一种几乎是零算力的解决问题方法,因为顿悟不依赖于尝试- 错误,也没有定向的逻辑推理。
辽宁师范大学的梁腾飞等人在一篇综述中提到,人类具有一种统一的注意加工机制。根据这种机制,人类可以根据不同的动机和需求变化,选择有效信息来解决问题,完成当前的任务④。尽管我们对顿悟的全面了解还不够,但这提醒我们,未来的AI发展方向可能需要更多地关注类似人类顿悟的能力,而不仅仅是依赖于算力和算法的优化。
上面我们从视知觉、社会交往、心理理论和问题解决四个方面分析了现有数字智能算法的局限性。我们可以看到人类这种以生存为导向的非精确性具身智能,不仅高效而且具有低成本的特点。习得人类这种具身智能,超级AI才会有革命性的突破。
#3 超级AI自己的意识
什么是意识?2022年,《自然评论》(Nature Review)上有一篇文章罗列了关于人类意识的几十种理论观点。其中最有意思的观点就是高阶理论。该理论认为:当某些东西例如视觉刺激成为大脑“高阶”区域(即处理和综合其他区域内容的部分)元表征的一部分时,人类才会对之产生意识。即,在颞叶视觉加工区域的视觉刺激的低阶表征,受到额叶加工区域元表征的作用时,意识就会产生⑤。由此,可以认为,意识本质上是一种更高层次加工机制对低级信息加工过程的元表征。
我们实验室最近完成的一个关于感觉信息冲突的实验也证明了意识的这种高阶理论。在我们的实验中,被试通过旋转平台获取本体感觉的方向信息,同时通过VR获取视觉的方向信息。当这两种方向信息冲突时,通过脑功能链接技术,我们发现,额叶等高级认知加工区域会对颞叶视觉信息的加工有一种强化促进作用,同时对枕叶产生抑制作用,导致被试出现“视觉优先”现象,即被试根据视觉的方向信息来判断方向。
为什么会出现“视觉优先”呢?这可以从人类进化的角度分析。直立行走是人类进化的一个关键点,因为直立行走,人类绝大多数的外界信息(约80%)通过视觉获取。这显然有利于人类发现食物和天敌,从而获得更大的生存机会。总结一下,从我们的实验结果来看, 意识就是一种高阶加工机制对低阶加工机制的整合调节机制,而且这种整合调节机制是几百万年人类进化的结果。
基于意识高阶理论的基本框架,我们可以进一步构建超级AI本身的意识。这种AI的意识有着不同的阶层,就好像是一个金字塔结构,较低阶层的信息处理受较高层信息处理机制的整合和调控。这种整合和调控的原则应该是基于人类具身智能的规则,比如,就像我们的实验证明的那样,在人类个体本体感觉信息和视觉信息发生冲突的条件下,应该遵循“视觉优先”原则。
#4 结论
我们的结论非常清晰。如果继续依赖硬件发展或算法优化的数字智能,AI的发展将走入死胡同。然而,基于类人脑智能的研究,赋予超级AI人类具身智能和意识,将带来革命性的突破。零算力不再是梦想,人类与超级AI在同一个社会中共存共荣也不再是乌托邦的猜想。
如果真是这样,回到我们最初的问题,我们可以说:“借助AI,人类可以、有能力达到康德所说的认识的‘彼岸’。”
最后,我想强调,虽然我们在文章中引用了一些实验数据作为观点的佐证,但我们的观点仍然是思辨性的。我们希望与同人一起开展更多、大量的实验研究,以进一步验证或反驳我们的观点。MI·专栏
参考文献:
①[美] 斯图尔特·罗素著、AI 新生:破解人机共存的密码—人类最后一个大问题[M]. 张羿译. 北京:中信出版社,2020.
②[美] 伯特霍尔德·霍恩著、机器视觉[M]. 王亮等译. 北京: 中国青年出版社,2014.
③Strachan, J.W.A., Albergo, D., Borghini, G. et al. Testing Theory of Mind in Large Language Models and Humans[J]. Nature Human Behaviour, 2024: 5.
④梁腾飞等. 知觉场景与工作记忆表征中的注意选择:一个统一的视角[J]. 心理科学进展,2018(26):625-635.
⑤Seth, A.K., Bayne, T. Theories of Consciousness[J]. Nature Reviews Neuroscience, 2022(23):43-452.
来源:36kr
|
|