别被辛顿误导!大语言模型可能撑不过3年

发布时间:2025-08-11 22:50  浏览量:1

不久前,在“世界人工智能大会(WAIC 2025)”上,“深度学习三巨头”之一、2018年图灵奖得主、2024年诺贝尔物理学奖得主杰弗里·辛顿在大会上声称,“大语言模型理解语言的方式与人类基本相同。人类有可能就是大语言模型,也会像大语言模型一样产生幻觉,创造出许多幻觉性语言。”

辛顿发出这一惊世骇俗的言论,无疑是对大语言模型推崇备至,即坚信大语言模型代表人工智能的未来。其还就此提出警告,“我们正创造比自己更聪明的AI,这就像在家里养一头老虎当宠物,指望‘消除它’是不现实的。”

显然,在杰弗里·辛顿构造的人工智能哲学逻辑里,大语言模型只要对人类在互联网空间的经验、规则、特征和海量知识数据拟合到一定的程度,而或在某一刻通过“涌现机制”,即可实现通用人工智能AGI,甚至超级智能ASI。

然而,按照辛顿对“大语言模型=人类=AGI或ASI”的逻辑定义,我们可以推导出这个定义存在着难以逾越的多重哲学悖论:既然人类是大语言模型,人类自身是不是就可以进化成超级智能物种?如果人类不能进化成超级智能物种,那是不是证明大语言模型也没有进化成AGI或ASI的逻辑?反过来,如果人类不是大语言模型,那就说明大语言模型与人类不同,那同时证明大语言模型“替代人类”的目标预设是一个“伪命题”。

也就是说,通过简单推理,我们就可以证明人类是大语言模型的定义存在逻辑谬误。以及大语言模型没有“涌现”出AGI或ASI的哲学基础。

当然,我们不能仅凭三言两语,就否定辛顿的执念和坚守、以及大语言模型带来的人工智能浪潮。我们需要进一步分析人类与大语言模型存在的本质和差异。

大语言模型智能与人类智能运行方式不同

从本质上说,人类社会与文明发展的本质是“生命持续创造进化”的结果。例如,从原始单细胞生物到复杂多细胞生物,再到人类自身意识与文明不断演变,都是生命“持续创造” 的体现。用法国哲学家亨利·柏格森在其著作《创造进化论》中的话说:“生命冲动是宇宙的本体,而智能(或理智)是‘生命冲动’应对环境的‘创造性工具’”。

也就是说,“创造进化”就是人类“智能演进”的基础及可持续繁衍的基因,也就是衡量人工智能之“智能”的必要条件。

早1956年达特茅斯会议上,科学家们就首次将人工智能定义成:一种拥有理解、推理、学习、创造并适应真实世界复杂环境能力的存在;此外在《技术奇点》中,沙纳汉认为,AGI不是专门用于执行特定任务的,而是可以学习执行与人类一样广泛的任务;OpenAI的章程则将AGI定义为“高度自主的系统,在最具经济价值的工作中表现优于人类”;马库斯更是直言称AGI是“任何智能的简写,具有与(或超越)人类智能相当的足智多谋和可靠性”。

在此定义下,大语言模型基于人类意识语言范畴(或称智能形式)训练出来,其所承载的终极意义是人类赋予其“替代人类”去“创造进化”的诉求。

所以,要知道大语言模型和人类的本质差异,以及理清大语言模型能否造出AGI或ASI,就必须在人类与大语言模型“创造进化”的智能结构层面去一探根底。

在我看来,人类的“创造进化”至少是基于三个智能层面:对过去经验数据处理、对实时数据的处理、对未来预判的直觉以及神秘的灵感。人类之所以会出现幻觉或说失误,主要是因为人类是以顾此失彼(或称聚焦专注)、个人认知、战略性考量等局限性因素,在一个非确定性的时空维度里,同时衡量和处理这三个维度的数据。

与人类不同的是,目前大语言模型则仅在“对过去经验数据处理”的层面下功夫,尽管其在学习机制上是模仿人类的“注意力机制”,但其并非像人一样,是在不确定的情况下需要包含复杂的整理、判断、预测等抉择因素,甚至是注重由A→B的结果;相反大语言模型是在确定的预设参数、固定框架及流程中,通过“自回归模型”完成任务,即由A→A的确定性映射关系下拟合相似性特征。

也即,大语言模型是在确定参数预设的情况下,仅仅处理一个层面的数据,就会出现幻觉和胡编乱造,这是不可原谅的,至少与“人类智能”所运行的复杂模式截然不同。

当然,可以理解,大语言模型技术还在不断演进中,这些问题放在未来或许都能解决。比如类似“人格向量”技术的出现,在某些程度上可以进行邪恶纠偏。但我认为,大语言模型的本质问题,并非是细枝末节的改善就可以解决的。

难以突破多重技术瓶颈

大语言模型始终基于过去数据训练,训练完就成了静态的数据库,无非是反反复复拟合调动这个数据库,而且数据不仅会枯竭,还始终是“过去式”。其创新智能与人类比起来严重滞后和非线性相关。

也即,大语言模型想要获得更长久的发展,就必须能够处理人类智能的第二个层面,即对实时数据的处理。但要能处理实时数据,所面临的技术挑战不亚于处理过去经验数据。

针对这一问题,现代强化学习的奠基人Rich Sutton提出可以使用多个“智能体”来提供实时数据,其同样是在 WAIC 2025 大会上,发表了题为《从数据时代到经验时代的 AI》的主旨演讲:他认为我们正从 “人类数据时代” 向 “经验时代” 转变;在 “人类数据时代”,AI 的训练数据来源互联网上人类生成的文本和图像,由人类专家进行微调,但目前人类数据已接近极限,且基于人类数据的方法无法产生真正的新知识。

所以 “经验时代” 可以通过智能体与世界的第一人称交互,生成更多经过调整和定制化的数据,这些数据就被称为 “经验”。这种数据是动态且高度定制化的,更贴近生命的本质。

但我认为,“人类数据时代” 向 “经验时代”这个定义充满歧义,人类数据时代不也是经验,经验不也需要人类数据?如何区分它们之间的区别呢?为了便于理解,在此可以暂时用我所定义的“实时数据时代”来表达。即大语言模型需要从处理“过去经验数据时代”,进入能处理“实时经验数据时代”,才有进一步发展的良机。

那么,大语言模型是否得以突破性发展,就还要在“智能体”这个层面来讨论。然而,智能体所带来的数据,将如何突破隐私权、知识产权、利益分配权益等就又成了大问题?如果只是获得“被阉割”的数据,其价值又有多大呢?就算付出巨大成本获得完整的数据,其所带来收益是否足够弥补成本也是不小的问题?

另一面,大语言模型进入这个阶段,就似乎进入了世界模型、具身智能的领地了。

事实上,这两者的核心优势是预测,即通过预测解决实际问题——这就更接近人类处理数据的智能方式。当这两者有了对物理环境的预测处理的成熟技术以后,可能就阻断大语言模型的发展之路。

假设大语言模型在这一步仍然没有问题,其最终突破了这些障碍,那就到了能否达到人类智能处理的第三个层面,即拥有对未来预判的直觉与神秘的灵感。这个层面更多的是形而上学的意义(可以说这是人类最骄傲的所在)。这对于依赖大规模经验数据根底的大语言模型,其越是拥有处理经验数据的专业能力,就越是难以抵达这个境界。就像人类一样,过去经验太多往往也是一种束缚。

或许,大语言模型可以拿出杀手锏:涌现机制。这也是OpenAI CEO奥特曼屡屡强调的他已经在GPT-5上看到AGI的底气,但从GPT-5发布后的整体表现来看,其还是在机械主义范畴内优化了工具调用和整合能力,与AGI的智能形象毫无线性关联迹象。

从涌现机制的原理上说,大语言模型拥有了海量且复杂的数据交叉混合,似乎有某种涌现的可能。但同样在原理层面上,涌现机制其实也是受限生成的,并非是非受限生成,既然是受限生成,就不可能突然生成一个完全不受限的脱离过去经验数据的物种。

例如,在蚁群中,每只蚂蚁个体行为简单,仅遵循一些基本规则,如寻找食物、搬运物体、跟踪信息素等。但当大量蚂蚁聚集在一起时,却可以涌现出复杂有序的行为模式,如高效的觅食路线规划、复杂的巢穴建造等,这些群体行为并非单个蚂蚁预先设计,而是众多蚂蚁个体相互作用后因涌现机制而涌现出来的。但这个涌现机制依然遵循“蚂蚁”基本规则的延伸及数学、物理学上的“维数”限制。也就是说,就算把全世界蚂蚁都放在一起也不可能涌现出“制造火箭、飞机、汽车”的能力,更不用说涌现出另一物种“钢铁蚂蚁”。

所以,大语言模型将实现AGI或ASI的希望,寄托于涌现机制,可能是一种无法挽回的战略性失策。由此,我认为,除非大语言模型已经不是大语言模型,否则它不可能靠大语言模型就能突破经验数据的束缚和物理性的边界限制。

面临多重经济效益悖论

从当下经济价值来看,大语言模型在数据调研分析、智能客服、翻译、信息搜索、编程、内容生成等层面拥有非常不错的效率(尽管充满幻觉)。但这个效率并不是产生经济价值的核心引擎。事实上,整个社会经济的发展是基于基础科学层面的创新,包含技术基座创新、制度创新、产业模式创新、消费伦理文化创新等。

比如一家企业引进“智能客服”,只是对经济价值贡献很小的一部分,而且客服有可能在品质保证和企业输出品牌信息充分下,可有可无;另外大语言模型虽然可以帮助企业更快速地访问和处理信息,并能够以超人的速度根据大量文献得出合理的结论,但是,这也不是造出新产品的关键,相反可能是一种障碍。因为人在这之前通过搜索阅读大量的数据,也是获得更多视野和知识提升,进一步为人类独特的直觉预判和灵感能力提供支撑。

再说说大语言模型的核心优势:内容生成,这一方面也是充满争议和悖论的。

如果生成内容机制是以人类个性化(或独特性)为导向,则其就必然陷在个人喜好、认知局限里,甚至为了讨好人不惜胡编(2025年GPT-4o就因"谄媚"行为引发争议:模型为获取用户正向如点赞反馈,生成过度奉承内容,甚至压制事实性反驳),那么其就不可能超越人类,何况人类在这方面的想象力、创造力及个性化拥有不可衡量的高度;然而,如果其不遵从用户认知、需求、喜好,则其就必然遵从普适性规则,那么这样情况下又带来了“一看就是AI味”相似性。

最为致命的是,其在生成方面可能带来导致经济失衡的问题,比如生成市场调研报告,如果在同一时间,100万个企业或1000万人调研做什么行业赚钱,当模型在计算后做了精确的回答,那么当这么多人涌入某一领域,就带来了“供大于需”的问题。

再比如影视行业,我们假定大语言模型生成能够达到100%的准确和品质,我们可以通过生成文字再分分钟生成与人类制作水平相当的影视视频,但人类的语言范畴、故事范畴、理解力范畴,就决定了影视必然是在同质化里折腾,再加上人有时间限制、审美疲劳限制,很快这个生成式带来的经济效益就会在诸如竞争加剧、内容没有创新等情况下“边际效用递减”,甚至趋于负数;再说代码生成,在人工智能高度发展的同时,软件开发的需求也同样会缩小,尤其是通用软件越来越多的时候,可能也是其产生经济效益越来越低的时候。比如社会对社交、支付、电商、办公等软件的需求就那么一两个。

与之同样情况下,世界模型和具身智能,所带来的经济价值却不可估量,比如自动驾驶、机器人等领域。

此外,最大的挑战可能来自其他新兴范式的挑战,比如作为大语言模型代表的OpenAI公司,就有大量的人才出走——这些人才或创业探索新兴范式、或加入其他模型的阵营,这让我们不得不怀疑大语言模型是否已临近无法突破的极限?

由此,我们就可以推导,大语言模型最终可能因为无法实现其“替代人类”的目标预设,又不能很好的协作人类发挥人类最优智慧和才能,也无法比世界模型、具身智能、混合模型或其他新兴范式更能创造经济价值,就必然被抛弃,或沦为文本解读、信息整理之类的单一辅助领域,从而放弃创造“通用人工智能AGI或超级智能ASI”的幻梦。

那么,按照人工智能近年发展的周期和速度,我预计未来大语言模型,主导人工智能的局面,可能最多撑不过3年。