AI承诺的机遇掩盖了有序替代的现实

发布时间:2025-08-12 17:40  浏览量:1

认知迁移正在进行中。车站里人满为患。有些人已经上车,而另一些人犹豫不决,不确定这个目的地是否值得他们离开。

工作未来专家、哈佛大学教授Christopher Stanton最近评论说,AI的采用速度非常惊人,并观察到这是一项"传速度极快的技术"。这种采用和影响的速度是AI革命与之前由技术主导的变革(如PC和互联网)的关键区别。谷歌DeepMind首席执行官Demis Hassabis进一步预测,AI可能"比工业革命大10倍,速度可能快10倍"。

智能,或至少是思考,正越来越多地在人类和机器之间共享。一些人已经开始在工作流程中定期使用AI。其他人则走得更远,将其融入到认知例程和创意身份中。这些是"愿意者",包括熟练掌握提示设计的顾问、重新设计系统的产品经理,以及那些建立自己企业的人,从编码到产品设计到营销都在使用AI。

对他们来说,这个领域感觉新颖但可以驾驭,甚至令人兴奋。但对许多其他人来说,这个时刻感觉奇怪,而且相当令人不安。他们面临的风险不仅仅是被抛在后面,而是不知道如何、何时以及是否要投资AI这个看似高度不确定的未来,一个他们难以想象自己位置的未来。这就是AI准备状态的双重风险,它正在重塑人们如何解释这种转变的节奏、承诺和压力。

这是真的吗?

在各个行业中,新的角色和团队正在形成,AI工具正在重塑工作流程,速度超过了规范或策略的跟进。但重要性仍然模糊,策略不明确。最终结果(如果有的话)仍然不确定。然而,变化的速度和范围感觉具有预兆性。每个人都被告知要适应,但很少有人确切知道这意味着什么或变化会走多远。

一些AI行业领导者声称巨大的变化即将到来,而且很快,超级智能机器可能在几年内出现。但也许这场AI革命会像之前的那些一样破产,随之而来的是另一个"AI寒冬"。历史上已经有两个值得注意的寒冬。第一个是在1970年代,由计算限制引起。第二个始于1980年代末,在一波未达到预期的高调失败和"专家系统"交付不足之后。

如果今天围绕AI智能体的兴奋反映了专家系统的失败承诺,这可能导致另一个寒冬。然而,现在和那时之间存在重大差异。今天,与1980年代的专家系统相比,有更大的机构认同、消费者吸引力和云计算基础设施。不能保证新的寒冬不会出现,但如果这次行业失败,那不会是因为缺乏资金或动力,而是因为信任和可靠性首先破裂。

认知迁移已经开始

如果"伟大的认知迁移"是真实的,这仍然是旅程的早期部分。一些人已经上了火车,而其他人仍在徘徊,不确定是否或何时上车。在不确定性中,车站的气氛变得焦躁不安,就像旅行者感觉到没有人宣布的行程变更。

大多数人都有工作,但他们想知道他们面临的风险程度。他们工作的价值正在转变。在绩效评估和公司全体会议表面之下,一种安静但不断增长的焦虑在嗡嗡作响。

AI已经可以将软件开发速度提高10到100倍,生成大部分面向客户的代码,并大幅压缩项目时间表。管理者现在能够使用AI创建员工绩效评估。甚至古典学者和考古学家也发现了AI的价值,使用这项技术来理解古代拉丁铭文。

"愿意者"对他们要去哪里有想法,可能会找到牵引力。但对于"被迫者"、"抵制者",甚至那些尚未被AI触及的人来说,这个时刻感觉像是期待和悲伤之间的东西。这些群体已经开始理解他们可能不会在舒适区待太长时间。

对许多人来说,这不仅仅是关于工具或新文化,而是关于那种文化是否完全有他们的空间。等待太久就像错过火车,可能导致长期失业。甚至我交谈过的那些在职业生涯中资深并已开始使用AI的人也想知道他们的职位是否受到威胁。

机会和技能提升的叙述隐藏了一个更不舒服的真相。对许多人来说,这不是一次迁移,而是一次有序的替代。一些工人不是选择退出AI,他们发现正在建设的未来不包括他们。对工具的信念不同于在工具正在重塑的系统中的归属。如果没有有意义参与的明确路径,"适应或被抛在后面"开始听起来不像建议,更像一个判决。

这些紧张关系正是这个时刻重要的原因。越来越多的人感觉到,他们所知道的工作正在开始消退。信号来自高层。微软首席执行官Satya Nadella在2025年7月的一份裁员备忘录中承认了这一点,指出向AI时代的转变"有时可能感觉混乱,但转型总是如此"。但这个令人不安的现实还有另一层:推动这种紧迫转型的技术本身仍然根本不可靠。

力量和故障:为什么AI仍然不能被信任

然而,尽管有所有的紧迫性和动力,这种日益普及的技术本身仍然存在故障、限制、奇怪的脆弱性,远非可靠。这引发了第二层怀疑,不仅关于如何适应,还关于我们正在适应的工具是否能够交付。也许这些缺点不应该是一个惊喜,考虑到仅仅几年前,大语言模型的输出几乎不连贯。然而现在,它就像在口袋里有一个博士学位;按需环境智能的想法几乎实现了曾经的科幻。

然而,在它们的光鲜表面之下,建立在这些大语言模型之上的聊天机器人仍然是易错的、健忘的,经常过度自信。它们仍然会产生幻觉,这意味着我们不能完全信任它们的输出。AI可以自信地回答,但没有责任感。这可能是好事,因为我们的知识和专业技能仍然是需要的。它们也没有持久的记忆,难以将对话从一个会话延续到另一个会话。

它们也会迷失。最近,我与一个领先的聊天机器人进行了一次会话,它用一个完全不相关的回答回答了一个问题。当我指出这一点时,它再次偏离主题地回应,就好像我们对话的线索简单地消失了。

它们也不学习,至少不是以任何人类的方式。一旦一个模型被发布,无论是由谷歌、Anthropic、OpenAI还是DeepSeek,它的权重就被冻结了。它的"智能"是固定的。相反,与聊天机器人对话的连续性仅限于其上下文窗口的范围内,诚然,这个窗口相当大。在那个窗口和对话中,聊天机器人可以吸收知识并建立连接,在那一刻充当学习,看起来越来越像专家。

这些天赋和缺陷加起来形成了一个有趣的、迷人的存在。但我们能信任它吗?像2025年爱德曼信任晴雨表这样的调查显示,AI信任是分化的。在中国,72%的人表达对AI的信任。但在美国,这个数字下降到32%。这种分歧强调了公众对AI的信念在多大程度上受到文化和治理的影响,就像受到技术能力的影响一样。

如果AI不产生幻觉,如果它能记住,如果它学习,如果我们理解它是如何工作的,我们可能会更信任它。但对AI行业本身的信任仍然难以捉摸。人们普遍担心AI技术不会有有意义的监管,普通人在其开发或部署方式上几乎没有发言权。

没有信任,这场AI革命会动摇并带来另一个寒冬吗?如果是这样,那些投入时间、精力和职业生涯的人会怎么样?那些等待拥抱AI的人会因为这样做而过得更好吗?认知迁移会是一个失败吗?

一些著名的AI研究人员警告说,当前形式的AI——主要基于大语言模型构建的深度学习神经网络——将达不到乐观的预测。他们声称这种方法需要额外的技术突破才能进一步发展。其他人不相信乐观的AI预测。小说家Ewan Morrison将超级智能的潜力视为吸引投资者资金的虚构。"这是一个幻想,"他说,"是风险投资疯狂的产物。"

也许Morrison的怀疑是有道理的。然而,即使有缺点,今天的大语言模型已经展示了巨大的商业效用。如果过去几年的指数进步明天停止,从已经创造的东西产生的涟漪将在未来几年产生影响。但在这个运动之下隐藏着更脆弱的东西:工具本身的可靠性。

赌博和梦想

目前,随着公司试点并越来越多地部署AI,指数级进步继续。无论是出于信念还是对错过的恐惧,行业决心向前推进。如果另一个寒冬到来,特别是如果AI智能体未能交付,这一切都可能崩溃。尽管如此,普遍的假设是今天的缺点将通过更好的软件工程得到解决。它们可能会的。事实上,它们可能会,至少在一定程度上。

赌注是技术将起作用,将扩展,它创造的破坏将被它启用的生产力所抵消。这次冒险的成功假设我们在人类细微差别、价值和意义方面失去的将在覆盖范围和效率方面得到补偿。这就是我们正在做的赌博。然后是梦想:AI将成为广泛共享的丰富来源,将提升而不是排斥,扩大对智能和机会的获取而不是集中它。

令人不安的在于两者之间的差距。我们正在前进,就好像进行这场赌博将保证梦想。这是加速将使我们到达更好地方的希望,以及它不会侵蚀使目的地值得到达的人类元素的信念。但历史提醒我们,即使成功的赌注也可能让许多人落后。现在正在进行的"混乱"转型不仅仅是不可避免的副作用。它是速度压倒人类和机构有效且关心地适应能力的直接结果。目前,认知迁移继续,既基于信念也基于信仰。

挑战不仅仅是构建更好的工具,而是要问关于它们带我们去哪里的更难的问题。我们不仅仅是迁移到一个未知的目的地;我们这样做得如此之快,以至于地图在我们跑步时在变化,穿越一个仍在绘制的景观。每次迁移都承载着希望。但未经审视的希望可能是有风险的。是时候问的不仅仅是我们要去哪里,而是当我们到达时谁将有归属感。

Gary Grossman是爱德曼技术实践执行副总裁和爱德曼AI卓越中心全球负责人。

Q&A

Q1:什么是认知迁移?它对职场有什么影响?

A:认知迁移指的是人类与机器共享智能和思考的过程。在职场中,一些人已经将AI融入工作流程和认知习惯中,而另一些人则面临被替代的风险。这种迁移正在重塑工作方式,但也带来焦虑,因为许多人不确定如何适应或是否会被排除在AI驱动的未来之外。

Q2:AI寒冬是什么?会再次出现吗?

A:AI寒冬指的是AI发展停滞期,历史上已出现两次。第一次在1970年代因计算限制,第二次在1980年代末因专家系统未达预期。虽然当前AI有更强的机构支持和基础设施,但如果AI智能体未能交付承诺或信任和可靠性问题严重,仍可能出现新的寒冬。

Q3:为什么说AI技术仍然不可信任?

A:尽管AI能力强大,但仍存在关键缺陷:会产生幻觉(生成错误信息)、缺乏持久记忆、无法真正学习、容易迷失对话线索。全球信任度也存在巨大差异,中国为72%而美国仅32%。这些技术局限性和信任问题使得AI在关键应用中的可靠性受到质疑。