eNewsTree.com

 找回密码
 立即注册
查看: 58|回复: 0
打印 上一主题 下一主题

科学家发现人类和AI推理模型惊人相似之处

[复制链接]
跳转到指定楼层
楼主
发表于 昨天 20:27 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
人工智能学家









长期以来,人工智能的发展似乎遵循着一条与人类认知背道而驰的轨迹:硅基智能以其瞬时的计算速度和海量的数据吞吐震撼世界,而碳基大脑则以缓慢、充满犹豫但极具深度的逻辑推理著称。然而,麻省理工学院(MIT)麦戈文脑研究所的一项最新研究打破了这种二元对立的刻板印象。这项发表于《美国国家科学院院刊》(PNAS)的研究揭示了一个令人深思的现象:当新一代人工智能模型被训练去解决复杂问题时,它们展现出的“思维成本”与人类惊人地相似。这不仅是一次技术上的巧合,更可能暗示了智能本质上的一种普适性规律。

从模式匹配到思维链:计算范式的“慢思考”转向

在过去的几年里,以ChatGPT为代表的大型语言模型(LLM)主要依赖于概率统计来预测下一个单词。这种机制类似于诺贝尔奖得主丹尼尔·卡尼曼所描述的“系统1”——一种快速、直觉式但容易出错的思维模式。这类模型在撰写邮件或生成代码片段时表现出色,但在面对需要多步推理的数学题或逻辑谜题时,往往会因为缺乏连贯的逻辑链条而陷入“幻觉”。

然而,技术界正在经历一场静悄悄但剧烈的范式转移。新一代被称为“推理模型”的AI系统正在崛起。与它们的前辈不同,这些模型不再急于吐出答案,而是被设计为在输出最终结果前经历一个隐性的计算过程。MIT脑与认知科学系副教授伊芙琳娜·费多连科(Evelina Fedorenko)及其团队的研究核心,正是聚焦于这一转变。

研究团队发现,这种新型AI在处理任务时产生了一个可以量化的“思维成本”。对于人类而言,这一成本体现为时间;对于AI而言,则体现为“令牌”(tokens)。在推理模型中,令牌不仅仅是输出的文本,更是模型内部计算状态的记录,是其思维链(Chain-of-Thought)的具象化。研究人员通过对比人类志愿者与AI模型在解决七种不同类型问题(从基础算术到复杂的抽象模式识别)时的表现,发现了一个显著的正相关关系:人类需要耗费更长时间思考的问题,恰恰也是AI需要生成更多内部计算令牌才能解决的问题。

这种相关性在“ARC挑战”(Abstraction and Reasoning Corpus)中表现得尤为淋漓尽致。这类题目要求解题者观察一组彩色网格的变换规律,并将其应用到新的网格中。这不仅考验计算能力,更考验抽象归纳能力。数据表明,ARC挑战是人类耗时最长的任务,同时也是AI模型消耗计算资源(令牌)最多的任务。反之,简单的数值算术对双方而言都属于低成本任务。这种“难度同构性”表明,无论是由神经元构成的生物网络,还是由晶体管构建的人工神经网络,在面对客观世界的复杂逻辑时,都需要遵循某种相似的能量与时间分配法则。





趋同进化:功能导向下的意外重合

这一发现最引人入胜之处在于其非意图性。费多连科教授敏锐地指出,构建这些推理模型的工程师们从未试图模拟人脑的运作机制。他们的目标纯粹是工程导向的:创建一个在各种条件下都能稳健运行并产生正确结果的系统。

这种现象在生物学上被称为“趋同进化”——正如蝙蝠和鸟类为了适应飞行的物理法则而各自独立进化出了翅膀,人工智能和人类大脑为了攻克复杂的逻辑推理,似乎也不约而同地进化出了“分步处理”的策略。MIT的研究员安德烈亚·格雷戈尔·德·瓦尔达(Andrea Gregor de Varda)通过强化学习的视角解释了这一过程。在训练阶段,模型被鼓励去探索问题空间,只有当它们学会将大问题拆解为小步骤,并逐步推导时,才能获得正向的反馈奖励。

这种机制迫使AI放弃了以往那种“脱口而出”的线性预测模式,转而采用一种更耗时但更准确的迭代计算模式。这实际上是在硅基载体上重现了人类的“系统2”思维——一种缓慢、耗能但理性的深思熟虑。这也解释了为什么用户在使用最新一代推理模型时需要忍受数秒甚至数十秒的延迟,这种延迟并非算力不足,而是机器在进行必要的“认知停顿”。

这一发现挑战了长期以来关于“通用人工智能”(AGI)路径的某些假设。过去,许多学者认为AI将通过完全不同于人类的路径实现超强智能。但MIT的研究暗示,通往高级智能的道路可能比我们预想的要窄——由于数学逻辑和物理世界的客观复杂性,任何试图有效解析这一世界的智能体,无论其物理载体为何,可能都必须采用类似的计算策略和资源分配模式。

黑箱中的独白:语言与思维的这种辩证关系

尽管发现了行为层面的相似性,研究团队仍保持了严谨的科学怀疑主义,并未急于宣称AI已经拥有了人类般的意识。该研究触及了一个深刻的认知科学命题:语言是否等同于思维?

在推理模型中,所谓的“思维链”通常以文本形式呈现,仿佛是机器的“内心独白”。然而,德·瓦尔达指出,即便模型最终得出了正确答案,其生成的中间推理文本中有时仍包含错误或无意义的片段。这暗示了AI的实际推理过程可能发生在一个更高维度的、抽象的非语言表征空间中,而输出的文本令牌可能只是这一复杂计算过程的“投影”或“脚手架”,而非思维本身。

这与人类的认知体验产生了奇妙的共鸣。人类在解决极度抽象的数学问题或进行空间想象时,往往也不完全依赖语言,而是调动大脑中的非语言模块。语言往往是思维定型后的产物,而非思维的全貌。因此,虽然AI的“思维成本”与人类相似,但这并不意味着它们在微观机制上使用了与人脑相同的信息表征方式。

此外,该研究还划定了当前AI推理能力的边界。尽管模型在封闭逻辑系统(如数学和编程)中表现出了类人的思考深度,但它们是否能处理那些依赖于庞大外部世界知识、且未在训练数据中明确阐述的问题,仍是一个未解之谜。

MIT的这项研究不仅为评价人工智能的进步提供了一个全新的维度——从单纯关注结果的准确率转向关注过程的计算成本,更为理解智能的本质提供了物理学视角的参考。它告诉我们,思考是有代价的,这种代价在碳基和硅基生命体中虽然表现形式不同,但遵循着相似的经济学原理。当我们看着屏幕上的光标闪烁、等待AI生成答案的那几秒钟里,我们或许正在见证一种异质智能体在数字世界中进行的、与我们并无二致的沉思。
收藏收藏 分享分享
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|小黑屋|手机版|消息树

GMT-8, 2025-11-28 21:01 , Processed in 0.079905 second(s), 15 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表