HomeArticle

诺奖得主的3个提醒:AI会办事了,世界就变了

AI深度研究员2025-12-28 11:41
诺贝尔物理学奖得主 Geoffrey Hinton。和他同台的,是《经济学人》科学编辑 Alok Jha。 地点在柏林的 Messe Berlin,Hinton说: 先改写的不是娱乐,是“高价值决策”:从扫描到诊断,医生的工作会被重新切分。 学习会被加速:辅导、数学、科学发现的节奏都会变快。 真正的风险点,不在模型会说话,而在模型开始“会办事”——代理系统、开放权重,让安全工作必须更快。 所以这篇文章不复述他讲了什么。 我们只抓一句话:AI 会办事了,世界就变了。

进入 2026 年前夕,柏林一场公开对谈中,AI 教父、诺贝尔物理学奖得主 Geoffrey Hinton 谈到 AI 正在发生的核心转变:

AI 不再只是给答案,而是开始自己思考、生成数据、执行任务。

这句话背后,是三层正在发生的变化:

会推理,幻觉在减少。

会自学,不靠喂数据。

会执行,主动交付结果。

落到现实中:医疗诊断的主导权在转移,不是医生失业,而是谁来下诊断结论这件事在变。教育加速分化,一对一 AI 导师、数学探索、科学发现都在加速。

当 AI 从被动响应变成主动执行,人和机器合作关系就得重新设计。

提醒一:AI 会推理了,幻觉在减少

过去两三年,聊天机器人最大的问题是什么?

“一本正经地说错话。”

但 Hinton 说:这种情况很快会少很多。不是因为它背了更多资料,而是它开始学会推理了。

那推理从哪里来?

他给了一个比喻:每个词就像一块形状复杂的乐高,放进一句话里会随着上下文微微变形,这些词块彼此扣住,形成含义。AI 不是把话翻译成逻辑符号再运算,而是在这些词块之间寻找最自然的连接方式。

一旦 AI 能更好地组合这些词块,推理能力就自然出现了。

多年来,符号 AI 主导了这个领域。他们认为推理的本质是把英语句子转换成逻辑形式,然后应用符号规则推导。他们对此深信不疑,以至于不认为这是假设,而认为这就是事实。

Hinton 明确表示:这完全是胡说八道。

那些主张神经-符号混合系统的人,本质上是想保留旧框架,只是让神经网络来做辅助。这就像有人承认智能手机更好,但还要用智能手机去控制算盘,完全没抓住重点。

推理全都在语言中完成,不需要转换成逻辑形式。

理解不是把句子变成逻辑符号,而是把词变成可以相互作用的高维向量。这更像蛋白质折叠,而不是逻辑运算。

未来的 AI 在说出一句话之后,会多做一步:回头看看刚才说了什么,对照事实或已有线索,如果发现不靠谱就修正。这不是简单的准确率提升,而是 AI 开始具备一种新能力:自我验证

以前它只能输出,现在它能检查自己的输出是否合理

以前它只负责回答,现在它会质疑自己的回答

这种从输出到验证的闭环,让 AI 第一次有了类似人类的自我纠错机制。对使用者来说,直接效果就是准确率更高、逻辑更连贯、胡编乱造大幅减少。

但更深层的变化是:AI 不再是一个被动响应的工具,而是一个能主动检查、修正、优化自己输出的系统。它开始有了某种程度的自主性。

这是能力层面的根本性突破。

提醒二:不等人喂数据了,AI 开始自己学

一直以来,训练 AI 模型都离不开:堆料。

堆算力,堆数据,把全网文章、小说、百科、论坛统统抓取一遍。

可现在问题来了:全网的公开数据已经用得差不多了。这就是 Scaling Law 遇到的第一个极限。你想再提升模型表现,就得多好几倍的投入,但进步却越来越小。

Hinton 认为,下一代 AI 不再靠人类喂,而是自己动手造。

他提到 AlphaZero 这个例子。

这个 AI 不是靠人类棋谱学会围棋的,而是自己和自己下棋,边下边学,越下越强,最后比人类冠军还准、还稳。

它通过自我对弈生成了无限的训练数据,不需要等人类提供更多棋谱。

Hinton 预测,数学将是 AI 自我训练最容易突破的领域。因为数学是封闭系统,AI 可以自己提出猜想、自己尝试证明。就像 AlphaGo 自己和自己下棋一样,AI 会自己“玩数学”:

我能证明这个吗?

我能证明那个吗?

在 10 年左右,AI 数学家可能会比人类强得多。它自己可以持续推演,生成无限的训练数据。

不只是在数学。Hinton 同意 DeepMind 领导者 Demis Hassabis 的观点:AI 会在科学发现中发挥越来越大的作用。物理、化学、生物的各个领域,都会出现突破性进展。

大语言模型也会一样。

正因为有了推理能力,AI 可以通过自我验证来生成训练数据。 就像一个员工白天干活,晚上复盘,发现问题,第二天自动提升。AI 不再是被动接收投喂,而是主动消化、验证、改进。

以前的训练逻辑是:数据越多,模型越强。所以大家拼命收集数据、清洗数据、标注数据。

现在的转变是:模型能自己生成高质量的训练数据,通过推理验证自己的输出,从错误中学习。

换句话说,真正强的 AI 不是靠数据涌入,而是靠反复演练,自己打通理解链条。这不是技术优化,而是训练范式的根本转变。从外部输入驱动,转向内部循环驱动。

过去的 AI 靠你教,接下来的 AI 自己会学。

提醒三:从工具到协作者,角色在转变

2025 年最常被提到的 AI 热词是:智能体。

它不是一个概念,而是一种新“生物”形态:一个能理解任务、能拆解流程、还能主动去执行的 AI。

Hinton 说:

“我们已经看到智能体在互联网上帮人下单、规划日程,接下来还会主动跟其他智能体协商。”

这不再是智能搜索,也不是高级助理,而是它开始接手你原本该亲自完成的那部分事情。

在对谈现场,Hinton 提到他 2016 年预测 AI 会在 5 年内取代放射科医生,低估了所需时间,但现在正在发生。FDA 已经批准了 250 多个 AI 医学扫描应用,AI 能从视网膜图像中看到医生未曾意识到的信息。在诊断准确率上,AI 是 50%,医生是 40%,结合起来是 60%。北美每年 20 万人死于误诊,这个数字会大幅下降。

教育也在转变。

一对一导师能让孩子学习速度快 2 倍,因为导师理解孩子哪里不懂。AI 导师会比导师做得更好,因为它拥有数百万儿童学习数据。不只是儿童教育,成人培训也在转变。Hinton 拿自己举例:在 Google 给员工做培训,讲神经网络这些事,枯燥得很。但 AI 导师可以做得更好,互动性强,也更有效。

不只是医疗、教育,AI 在日常工作中的转变更明显。

过去你怎么用 AI ?告诉它写文案、整理总结、排日程。可现在 AI 会反过来问你:你是想定酒店还是买机票?预算有限的话,我建议先订返程。 再往后,它甚至会不问你,直接定好。

一旦 AI 具备这种主动性,它就不只是工具,而像是一个会完成工作的“同事”。

这就是“智能体”。

它们的能力建立在前两节的基础上:

会推理,所以能判断下一步;

会自我学习,所以能在执行中优化。

很多人以为智能体越强,就意味着某些岗位要被替代。

Hinton 没这么说。他说的是人类会减少对执行过程的参与。不是你突然没工作了,而是你不再审核每一个环节、不再决定每一个动作,有些任务是智能体自己去协商完成后告诉你做完了。这意味着主导权在转移,你能影响结果的机会变少了。

所以,智能体能力需要设计边界。在 Hinton 看来,我们不是在开发一个听话的助理,而是引入一个愿意并有能力完成任务的参与者。这带来几个必须回答的问题:

  • 智能体到底该完成哪部分?
  • 哪些事必须人工审核?
  • 如果智能体出了问题,谁来负责?

答案可能因公司而异,但方向是一致的:AI 智能体不再只是辅助你了,而是开始直接交付结果。

最后,你的工作不是做具体项目,而是变成选择方案和拍板决策。

结语|能干事的AI,协作关系就变了

这次,在柏林现场,Hinton 没讲炒作,也没讲末日。

他给了三个提醒:

AI开始推理,不再一本正经地说错。

它会自己学,不靠人类灌输入。

它能动手干事,不等你发指令。

从工具到协作者,你的角色从执行者变成决策者。

📮 原文链接:

https://www.youtube.com/watch?v=M9ZNCkJJ0Sg&t=2s

https://www.businessinsider.com/ai-scaling-debate-geoffrey-hinton-ilya-sutskever-alexandr-wang-lecun-2025-12

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,36氪经授权发布。