哈萨比斯:ChatGPT把AI带上了“邪路”
我们可能用一个聊天机器人,换掉了治愈癌症的机会。
这并非阴谋论,而是哈萨比斯(Demis Hassabis)的原话逻辑。
这位诺贝尔奖得主、Google DeepMind的CEO、AlphaFold的创造者,在被问到ChatGPT发布那一刻时,给出了一个几乎可以称得上“反行业共识”的回答:
“如果让我来决定的话,我会让AI在实验室里待得更久一些,做更多AlphaFold这样的事情——也许能治愈癌症之类的。”
但现实是,像ChatGPT这样的产品爆发,让整个AI行业都陷入了高速竞争。
上述内容来自Huge Conversations在2026年4月7日发布的一次访谈,在这场对话中,哈萨比斯讲清楚了四件事:
AI真正改变世界的地方
AI是如何偏离原本路径的
真正需要被担心的风险
人类应该怎么应对
下面,是这场对话中最值得关注的几个部分。
01 AI真正改变世界的地方,我们很难看见
如果不是相关从业人员,大部分人对AI的印象还停留在聊天机器人、写作助手、或者生成图片上。
哈萨比斯在这场访谈里提到了一个很容易被忽略的事实:AI更重要的应用,其实发生在这些产品之外。
真正重要的变化发生在另一个离日常生活很远的层面,在实验室、在数据库、在那些大多数人从未接触过的科学问题之中。
最典型的例子就是AlphaFold。这是哈萨比斯带领DeepMind做出的一个系统,目标是仅凭一段蛋白质的氨基酸序列,预测出它最终的三维结构。
你可以这么想:蛋白质的结构决定了它在人体中的功能,而功能决定了疾病如何发生,也决定了药物如何起作用。
当然实际情况会复杂得多,在这里就不展开解释了。
过去,科学家想知道一个蛋白质有什么样的结构,需要花费数年时间,在实验室里反复尝试,成本动辄几十万美元,甚至更高。
很多蛋白质因为结构过于复杂,想被解析出来简直难如登天——认真的,不是开玩笑。
但AlphaFold把这件事变成了一次计算问题,输入一段序列,只需要几秒钟就能得到一个高度可靠的三维结构预测。
DeepMind原本可以像行业里惯常的做法那样做一个在线服务,科学家提交一个蛋白质序列,系统算一次,返回结果。
但在一次内部会议上,哈萨比斯突然意识到,与其按需计算,不如把自然界中已知的所有蛋白质全部算完。
于是DeepMind在他的带领下,把大约两亿个蛋白质结构批量计算了出来,免费开放给全世界。
在某种意义上我们可以认为这是一项公益事业,毕竟这一做法意味着,结构生物学这个领域,突然多了一个随时可以调用的基础设施。
哈萨比斯解释到,今天已经有超过300万名科学家在使用AlphaFold。对于许多研究者来说,这已经不只是一个“工具”,更像一个默认存在的前提条件。
在药物研发中,AlphaFold改变了整个流程的起点:过去的路径是在实验室里反复试错,但现在,大量的试错被提前搬到了计算机里。
过去,研究者需要先确定一个可能的靶点,再去设计分子,让它能“贴”在这个蛋白质上。这个过程依赖大量湿实验:做一个分子,测试一次;如果不对就再改一点,再测一次。
但在AI介入之后,这个逻辑开始发生变化。
在DeepMind拆分出来的药物公司Isomorphic Labs中,这一过程被重新组织成了一种“计算优先”的模式:AI先在计算机中生成大量候选分子,预测它们与目标蛋白质的结合效果,同时快速检查这些分子是否会误伤人体内其他蛋白质,可能带来什么副作用……
然后,根据这些反馈不断调整分子结构,进入下一轮搜索。
整个过程变成了一种高频率的迭代搜索,原本在实验室里花费大量时间和资源的试错,被压缩到了计算机的多轮计算里。
湿实验并没有消失,只是被推到了流程的最后一环:只有少数几个最有希望的候选分子,才会真正进入实验验证。
传统路径中一款药物的研发周期大约需要10年,成功率只有约10%。而这种以计算为核心的方式,至少在理论上,有机会同时改变这两个数字。
哈萨比斯自己的判断是:从现在开始,几乎所有新药的研发过程中,都会或多或少地用到AI。
在他看来,这才是AI最有可能改变世界的方式。不是以任何一个爆款产品的形式出现,也不会在手机界面上反复提醒你它的存在。
它更像是一层被铺设好的底层系统,一旦建成,就会悄无声息地改变整个领域的运行方式。
也就是说,如果只看聊天机器人,我们看到的可能只是AI最不重要的一部分。
02 AI正在被“推着跑”
如果顺着哈萨比斯自己的设想,AI的发展路径本来可以是另一种样子,更慢一点,也更“科学家”一点。
他在访谈里给出了一个比较罕见的表态:如果由他来决定,他会让AI在实验室里多待10年,甚至20年,像大型科学项目那样推进。
他给出的参照是CERN(欧洲核子研究中心,世界上最大的粒子物理研究机构),像那样把全世界最好的科学家组织在一起,一步一步把问题拆清楚,对每一个关键环节都建立起足够清晰的理解,而不是在不完全理解的情况下快速往前推进。
在这条路径上,AI的目标并不是尽快做出产品,而是优先解决那些最基础、最关键的科学问题——AlphaFold就是这种思路的典型体现。
在他的设想中,这些“慢而深”的突破,可以在通往AGI(通用人工智能)的过程中,持续为人类带来回报。
但现实并不是这样。
哈萨比斯的解释很直白:技术的发展,往往不会按照预期的路径前进。
其中一个关键的转折点是语言模型的突破,以及ChatGPT带来的爆发式传播。
语言能力比很多人预期的要容易解决得多,像Transformer这样的架构,加上一些强化学习方法,就足以让模型在语言、概念和抽象表达上表现出惊人的能力。
ChatGPT最初也只是一个研究实验,但它一被发布就迅速变成了一个全球性的产品。
它改变了整个行业的节奏,让AI变成了一场正在发生的激烈竞争。
大量用户开始直接接触到最前沿的AI能力,市场的关注点也随之发生了转移,从实验室里的长期问题,转向了可以快速落地的产品形态。
商业竞争开始加速,各家公司不得不更频繁地发布新模型,模型能力的演进也开始和用户增长、市场反馈深度绑定在一起。
哈萨比斯并没有完全否定这种加速,他承认这种发展方式也带来了几个现实的好处:原本可能需要更长时间才能落地的能力,现在可以更早进入现实世界。
今天大多数人使用到的AI,往往只比实验室内部的版本落后几个月——这放在以前几乎是难以想象的。大量的真实使用也带来了更丰富的数据,毕竟再完善的内部测试,也难以覆盖数百万用户带来的复杂场景。
但有好处并不意味着路径是理想的,它更像是一个被现实推动出来的结果。
哈萨比斯的态度其实很清楚,他是一个科学家,但同时也是一个工程师。我们可以理解为一种理想主义者在现实面前的妥协:他知道什么是更理想的路径,但也接受这个世界并不会按照理想运行。
技术的进展在很大程度上是不可预测的,一旦某个方向率先取得突破,它就会迅速吸引资源、资本和注意力。
于是,更容易被产品化的能力被不断放大,原本可能优先推进的科学问题,则被暂时放在了后面。
从这个角度看,今天的AI并不是沿着“最有价值”的方向在前进,而是在多种力量的推动下,走上了一条更快、也更不确定的路径。
03 真正的风险不是deepfake,是两件更大的事
关于AI的讨论,大多数焦点都集中在一类问题上:deepfake、虚假信息、内容失真。
注意,这里是对于大部分人而言,不是从业者,是任何一个使用AI的普通人。
deepfake确实是问题,但在哈萨比斯看来,它并不是最值得担心的那一类。
他在访谈中给出了一个非常明确的排序:
第一类是“人”的问题。小到个人,大到国家,会不会把这些原本用于科学研究、医疗和基础设施的技术,用在有害的方向上。
这种风险并不新,但AI让它的规模和效率发生了变化。一个原本只在小范围内产生影响的能力,一旦被放大,就可能带来完全不同级别的后果。
第二类是AI本身的问题。准确地说,是随着AI从“工具”变成能够独立完成任务的系统,这种变化所带来的不确定性。
哈萨比斯提到,今天的系统还不具备这种能力,但在未来几年内,随着AI进入所谓的“agentic”阶段(也就是能够自主执行完整任务的阶段),问题会变得更加严峻。
关键并不在它是否足够智能,在于我们是否能够确保它始终按照既定目标行事,不会绕过规则,也不会在执行过程中偏离原本的意图。
这在技术上是非常困难的,因为系统越智能,它能够找到的捷径也就越多,而这些捷径并不一定符合设计者最初的预期。
哈萨比斯认为,这两类风险是接下来几年需要重点面对的问题。
相比之下,当前最常被讨论的deepfake和虚假信息,更像是“已经发生的问题”,它们需要被解决,也有相对明确的技术路径,比如通过水印系统来标记AI生成内容:DeepMind内部就开发了类似的技术(SynthID),用于识别和追踪生成内容的来源。
如果把整个风险结构看作一个时间轴:短期我们面对的是信息层面的混乱;而中期,更严肃的问题,是能力层面的失控。
至于后期,现在谈论后期还为时过早(bushi)。
在这个意义上,哈萨比斯提到点:真正需要被关注的,并不是AI能说什么,而是它能做什么。
当AI开始从“回答问题”走向“执行任务”,风险的性质也会随之发生变化。
换句话说,我们正在谈论的很多风险只是发生在信息层面,而我们真正需要警惕的,是正在逼近的“行动”。
这话听起来有些科幻小说质感,可能很多人都设想过,有朝一日出现的超级智能觉醒出了“自我意识”,然后反过来替代甚至统治人类。
哈萨比斯本人也表示自己读了很多科幻小说,他最爱的是Iain Banks的Culture系列,那是一个post-AGI的世界,书里发生在一千年之后,但他觉得其中一些情节可能在50年内就成立。
不过他本人对此的设想比较美好:风险被解决了,人类安全度过了AGI时刻,AGI已经在每个人的口袋里,对社会有益,然后用来攻克他所说的“科学中的根节点问题”,像是能源、医疗、材料什么的。
04 把自己浸入每一种可用的AI工具里
如果把前面的讨论继续往前推,很容易走到一个问题:当AI开始参与科学发现、参与决策、甚至开始执行任务,人类还剩下什么?
换句话说,“人类为什么特别”?
这个问题在访谈后半段被非常坦诚地提了出来:主持人说,她发现自己在做一件人类历史上反复在做的事情,试图找到一个理由,证明“我们是特殊的”。
我们曾经以为地球在宇宙的中心,后来发现不是;我们以为只有人类会哀悼,后来发现大象也会;我们以为只有人类能创作艺术,但现在,AI也可以画画、写作、作曲。
每一次边界被打破,人类都会重新问一遍这个问题:我们到底为什么特殊。
对于这个问题,哈萨比斯并没有直接给出一个答案,我觉得这个问题也很难被简单的回答出来。
他提到了一个经典的计算理论框架:图灵机。
从理论上讲,一台通用计算机可以计算任何“可计算”的问题;在很多神经科学家的理解中,人脑本身也可以被看作是一种近似的计算系统。
如果这个前提成立,那么人类的大脑和我们正在构建的AI系统,在某种意义上是同一类东西。也正因如此,AI才有可能不断逼近甚至超过人类在某些能力上的表现。
而如果连智能本身都可以被复现,那么真正值得追问的,可能不再是“我们和AI有什么不同”,而是“我们到底在试图理解什么”。
哈萨比斯在访谈中提到,他小时候最喜欢的学科其实是物理。
吸引他的不是应用,而是那些最基础的问题:时间是什么?意识是什么?宇宙是如何运作的?
但这些问题,直到今天依然没有答案。
而他做AI的一个核心动机,就是把它当作一种工具,去帮助人类理解这些问题。
从这个角度看,AI并不只是一个替代人类能力的系统,更像一个被用来放大认知边界的工具。
这也解释了为什么,在谈到未来时,他的语气反而很乐观:如果风险能够被控制,AI可以被用来解决那些“根节点问题”,那些一旦被突破,就会带来成体系的变化的问题。人类最终甚至可以把这种能力带出地球,延伸到更远的地方。
但这些都还是远景,我们还是要回到更现实的问题:对于今天的人来说,该怎么办?
哈萨比斯的建议很朴素,他在访谈里说,他每次去大学演讲,都会重复同一句话:
“跟上这股潮流。”
对于每个想要参与AI未来的人,哈萨比斯的建议是把自己浸入到这些工具里,去理解它们,使用它们,成为一个“被放大的人”。
原因很简单,即使是在最前沿的实验室内部,大量精力也只能用于打磨模型本身,但这些模型真正可以被用来做什么,还有巨大的空间没有被探索。
也就是说,能力已经在那里了,但应用还没有被穷尽。
这也意味着,对那些能够理解这些工具、并把它们应用到新领域的人来说,机会正在迅速扩大。
他给出了一个非常具体的判断:今天的一个年轻人,完全有可能借助这些工具,在别人没有想到的方向上,做出一家价值数十亿美元的公司。(他举的例子是OpenClaw。)
把整场对话看下来,它其实给出了一个矛盾但真实的图景:一方面,AI正在被加速推进,风险正在逼近;另一方面,AI也打开了一个前所未有的机会窗口。
我们可能确实用一些更容易被产品化的能力,暂时换掉了某些更重要的可能性。
但事情已经发生,人类能做的或许并不是去纠正这条路径,而是尽可能理解它,并在其中找到自己的位置。
在对话的最后,主持人问了一个很感性的问题:你希望别人如何评价你的一生?
而哈萨比斯对此的回答是:“我希望他们会说,我的一生,对人类是有帮助的。”
本文来自微信公众号“字母AI”,作者:袁心玥,36氪经授权发布。