DeepMind创始人、诺奖得主:AI真正成为“世界参与者”的标准
发布时间:2025-06-25 11:18 浏览量:2
当人工智能开始模拟、解释并潜在地操作我们身处的物理世界时,它便超越了“工具”的范畴,演变为一个真实的“世界参与者”。这并非遥远的科幻设想,而是Google DeepMind联合创始人兼CEO、2024年诺贝尔化学奖得主Demis Hassabis在美国高级研究院(IAS)的分享中,为我们描绘的人工智能正在发生的深刻变革。他指出,从AlphaGo的棋盘到AlphaFold的蛋白质宇宙,再到最新项目Project Astra对现实场景的理解,其终极目标从未改变:构建一个能够模拟、推理并与世界互动的“世界模型”。这不仅是对当前主流大型语言模型的一次范式超越,更是一场旨在拓展人类认知边界的宏大科学实验。
在Hassabis的构想中,真正的通用人工智能(AGI)核心能力并非生成流畅的文本或逼真的图像,而是构建一个内在的、可运作的“世界模型”。这个模型能够模拟空间的结构、物理的规律、事件的因果关系以及时间的动态演进。这一思想的根源,可以追溯到Hassabis早年在神经科学领域的研究。他曾在剑桥大学探索人类大脑的记忆与想象机制,并发现一个惊人的事实:当我们回忆过去与构想未来时,大脑中被激活的区域高度重叠。这表明,人类之所以能够进行规划和预演,本质上是因为大脑内置了一个强大的“内部模拟器”,它利用过往的经验数据来推演未来的可能性。这一生物学上的洞见,成为了Hassabis构建人工智能系统时的核心哲学参考。
而游戏,正是训练这种“世界模型”最理想的初始试验场。Hassabis的科学生涯始于对棋类游戏的痴迷,从象棋到围棋,他敏锐地意识到,这些博弈系统不仅是策略与技巧的较量,更是现实世界结构的压缩映射。在游戏这个封闭世界里,规则清晰、决策路径明确、反馈回路紧密,为智能模型的构建与验证提供了完美的“沙盒”。图灵、香农、冯·诺伊曼等计算先驱早已认识到博弈在探索机器决策边界上的重要性。DeepMind沿着这条路径,首先从象棋、围棋这类完全信息博弈入手。在这些游戏中,所有信息对双方公开,AI可以学习在规则明确、观测充分的环境下进行规划与推理,AlphaGo和AlphaZero的成功便是这一阶段的里程碑。
然而,现实世界远比棋盘复杂。因此,DeepMind的研究自然延伸到了如德州扑克这样的不完全信息博弈。在这里,隐藏的变量和多层次的心理推演,迫使AI模型必须学会处理不确定性、评估概率并模拟对手的策略,这使其世界模型向现实的复杂性又迈进了一步。但Hassabis强调,无论是哪种游戏,其本身都不是终点。博弈的真正价值在于,它们能生成海量的结构化数据,并提供一个可控的环境,让AI学会如何从零开始建立对一个“微型世界”的理解和预测能力。这种从规则设定、策略建模到反馈调优的闭环流程,如同一种通用的“学习语言”,构成了AI理解更广阔世界的基础能力。
这种能力的极致体现,并非停留在符号化的棋盘上,而是要能理解一个看似简单却蕴含无穷复杂的真实场景。Hassabis描绘了这样一个场景作为衡量标尺:一个人在厨房里,拿起刀,切下一片番茄,然后顺手将其放入锅中。要完整理解这一连串动作,AI的世界模型必须超越单一的物体识别。它需要整合时间的连续性(动作的先后顺序)、空间的协调性(手、刀、番茄与锅的位置关系)、物理的直觉(切片需要用力、物体会下落)、工具与目标的关联性(刀是用来切的,锅是用来烹饪的),以及背后最深层的计划逻辑与行为意图。当一个AI系统能够真正模拟并推理这个场景时,它就实现了从“表面智能”到“结构智能”的飞跃,标志着一个真正意义上的世界模型开始浮现。
如果说游戏是构建世界模型的“启蒙课堂”,那么复杂的科学问题就是检验其泛化能力与深度的“终极试炼场”。在AlphaGo取得历史性胜利后,Hassabis几乎立刻将团队的重心转向了一个看似毫不相关的领域:蛋白质结构预测。这一决策背后,是他为AI研究方向设定的一套清晰标准:问题是否拥有明确的目标函数?是否能够自动或大规模地生成高质量数据用于训练?其内在的复杂性是否足以推动AGI能力的边界?
蛋白质折叠问题完美地满足了所有这些条件。它有一个明确的目标(预测蛋白质的三维结构),有科学界公认的验证方法(与实验结果对比),并且其本质是一个极其复杂的建模问题——这正是AI展现其最大潜力的领域。更重要的是,AlphaFold的成功并非仅仅依赖于过去数十年全球生物学家积累的十万多条已解析的蛋白质结构数据。
Hassabis透露,在开发早期,团队便采用了一种巧妙的“自举训练”(bootstrapping)策略:他们先用一个尚不完善的模型去预测一百万个全新的蛋白质结构,然后从中筛选出数十万个置信度最高的结果,再将这些由AI自己生成的“合成数据”反哺回训练集中。这种方法不仅极大地扩展了训练基础,提升了模型的泛-化能力,更从侧面验证了模型本身所学到的生物物理规律的科学合理性。AlphaFold的突破,雄辩地证明了Hassabis的核心观点:AI可以成为“科学探索的参与者”,而不仅仅是一个数据分析工具。
沿着同样的逻辑,DeepMind正将目光投向一个更古老、更抽象的领域——数学。在Hassabis看来,数学是测试AGI能力的理想环境,甚至比生物学更胜一筹。因为数学问题具备一个独一无二的优越属性:“自动判定”。一个数学证明,无论过程多么曲折,其最终的对错拥有严格的逻辑定论,这为构建高效、自主的训练和验证闭环提供了天然的便利。
DeepMind的数学团队开发的AlphaProof系统,正是这一思想的体现。它将证明一个数学定理的过程,转化为一种类似于AlphaGo下棋的策略搜索。在一个基于形式化语言(如Lean)的严格逻辑体系中,系统像棋手一样,在无数可能的推理路径中寻找通往最终命题的胜利之路。更具革命性的是,这类系统不仅能够验证证明,还能自主生成新的训练样本,从而摆脱了对人类专家标注的重度依赖,展现出强大的自适应学习能力。
Hassabis本人更是对“P vs NP”这个千禧年大奖难题念兹在兹,他将其称为AGI时代的“灵魂追问”。这个问题不仅关乎计算复杂性的理论边界,更直接关系到我们构建的智能系统,是否能在有效的时间内,真正解决那些对人类至关重要的复杂问题。从AlphaGo、AlphaFold再到AlphaProof,DeepMind的技术演进看似跨越了不同领域,但其内在遵循着一条高度统一的主线:寻找结构复杂、可被验证的宏大问题,通过构建对该问题背后深层结构的世界模型,来锤炼一种通用的、能够迁移的智能。科学,因此成为了锻造AGI最坚实的砧石。
如果说世界模型是理论核心,科学是验证场,那么DeepMind最新的Project Astra和Gemini模型家族,则是将这一宏大构想付诸实践的具体载体。Hassabis特别强调,Astra并非又一个“升级版的ChatGPT”。它的设计理念发生了根本性的转变:它不是一个从“语言出发”的生成系统,而是一个从“世界建模”出发的认知架构。其目标,是让AI能够持续地感知环境、模拟未来、理解因果,并对全新的情境做出合理的反应。
在这个系统中,Gemini与Astra扮演着协同互补的角色。Gemini作为通用的多模态“认知中枢”,被设计用于同时处理和融合文本、图像、音频、代码甚至视频等多种信息流,构建起AI理解世界的基础。它追求的不仅仅是识别,更是对跨模态信息之间的因果关系和语义一致性的建模。而Astra则更像一个基于这个强大认知核心所打造的“持久运行的智能体”(Agent)。它更关注系统如何在现实世界中长期运作,通过持续的感知与交互来获取信息,并主动调整自身策略以完成任务。
为了测试这一系统的能力上限,DeepMind正在设计一系列极具挑战性的世界建模任务,例如模拟一个包含角色意图、物体属性、事件顺序和突发状况的“厨房日常”场景。只有在这些任务中取得突破,AI才能真正从一个被动的问答机器,转变为一个能够主动理解、规划和行动的“世界代理人”。
正是在推进这些前沿实验的过程中,一个Hassabis长期坚持的假设受到了挑战:要让AI真正理解世界,是否必须赋予它一个物理的“身体”?过去,他深信智能的产生必须“具身”(Embodied),即通过与物理环境的直接交互来学习物理规律和发展直觉认知。然而,DeepMind最近的实验结果却带来了意外的启示。仅通过海量的图像和视频数据进行训练,AI模型就已经能够在没有实体传感器或触觉反馈的情况下,模拟出高度复杂的物理过程。它不仅能稳定地重现刀切番茄的动态、水珠飞溅的轨迹,甚至连光线在不同材质表面反射的细微变化都能捕捉得惟妙惟肖。
这一发现表明,系统通过观察学会了对世界背后运行的时间与因果结构进行建模,其深刻程度超出了Hassabis原有的预想。他坦承,这表明通往AGI的路径可能比我们想象的更加多样,对物理世界的深刻理解,或许并不唯一依赖于身体经验的积累。纯粹的“观察”和“模拟”,也可能是一条走得通的道路。
当AI从一个分析数据的工具,演变为一个能够理解、模拟甚至操作世界的“参与者”时,最重要的问题便从“技术能做什么”转向了“技术应该做什么”,以及“由谁来决定它做什么”。Hassabis对此有着清醒的认识,他反复提及制度建设的紧迫性与重要性。
他认为,未来的强大AI系统不能仅由工程师或单一公司来决定其能力上限和价值排序。它需要被纳入一个类似于“科学共同体”的社会机制之中,由来自不同学科背景的专家共同审议其发展方向、伦理边界和部署策略。Hassabis建议,应设立一个全球性的、去中心化的协调机制,覆盖从模型训练、安全评估到最终治理的全链条流程。这并非为了规避风险而采取的保守姿态,而是一种深刻的远见:当一个智能系统真正具备自主性时,为其设定规则和价值观的工程,必须在其诞生之前就已启动。
这也解释了DeepMind多年来一贯的价值观:技术突破不应脱离社会语境,科学探索必须与制度伦理并行。在Project Astra的开发过程中,他们从初期就引入了伦理顾问、语言学家和政策专家的参与,尝试在系统构建的源头就嵌入价值的讨论。
当被问及为何像DeepMind这样的前沿基础研究机构出现在企业内部,而非传统的大学或研究院时,Hassabis给出了坦诚的现实考量。在当前阶段,AI研究所需的庞大算力、顶尖的工程资源和高效的资金支持,是学术界难以比拟的,而企业,尤其是具备探索精神的初创公司文化,其迭代速度也极大地推动了技术的飞速发展。
归根结底,Hassabis和DeepMind的追求,是一场关于智能本身的科学探索。他少年时便沉迷于“意识从何而来”和“宇宙为何存在”这类宏大命题。他意识到,仅靠个体智识的火花已难以推动终极问题的突破,因此转而思考:我们能否构建一个人工的智能系统,来帮助人类从全新的维度理解智能本身?通过“造出智能”来反过来解释人类的思维过程。
或许未来十年,衡量一个AI系统是否足够“先进”,其标准将不再是参数的规模、回答的速度或匹配的精度,而是它能否真正理解世界。这场从“语言模型”到“世界模型”的深刻转变,不会一蹴而就,也不会仅由一家公司完成。但Hassabis坚信,重要的不是谁第一个抵达终点,而是在每一个关键节点上,始终保持对“什么是智能”这一核心问题的真实追问。在AGI真正落地之前,人类必须先建立一个透明、负责任且能够承载公共智慧的平台。因为我们所努力构建的,不应只是更快的语言模型,而必须是更强的“思维引擎”,一个能够最终帮助我们拓展自身认知边界的协作伙伴。