50公里:硅谷通往AGI的距离
在美国加州硅谷南北中轴线上,一条贯穿硅谷核心地带的“科技走廊”,正在悄然影响整个AI时代的“竞赛”格局。
从圣克拉拉出发,途经山景城、帕洛阿尔托、门洛帕克,一路向北直抵旧金山,这条线路大概是50-60公里(30-37英里)左右。
在这条路线上,全球最雄厚的资本与最顶尖的智慧交汇碰撞,数万亿美元的资金如赌注般投入。所有人都在争夺同一个目标——通用人工智能(AGI)。
图:硅谷通勤列车路线图,沿途经过圣克拉拉、山景城、帕洛阿尔托、门洛帕克以及旧金山等城市
资本、野心与年轻天才们沿着这条走廊狂飙突进,速度前所未有。而这场豪赌背后的关键玩家、惊人投入、潜在风险,以及那些不得不面对的深层追问,都散落在这个列车沿线的每一站。
硅谷列车:通往AGI的最前线
每日清晨,穿行硅谷的列车上挤满了埋头于笔记本电脑的年轻人。他们戴着耳机,手指在键盘上敲击不停。这些年轻人的电脑屏幕上,大多闪烁的是各种工作的消息。窗外的风景无人欣赏,这些通勤者在奔向通用人工智能(AGI)全球竞赛的第一线。
硅谷正上演一场科技巨头间的激烈角逐。这场旨在掌握一项可能重塑世界技术的竞赛,由美国最具实力的资本力量推动,数万亿美元的赌注已被押上。
沿着这条Caltrain线路,一幅AGI竞赛的全景图徐徐展开,比如:
- 在圣克拉拉站下车的人,走向芯片巨头英伟达总部;
- 在山景城站下车的人,奔赴谷歌DeepMind;
- 在帕洛阿尔托站下车的人,步入人才摇篮斯坦福大学;
- 在门洛帕克站下车的人,进入Meta——扎克伯格正以人均约2亿美元的薪酬方案招揽AI专家,构建他的"超级智能"愿景;
- 旧金山站下车的人,则走向OpenAI与Anthropic,这两家AI初创公司估值合计已超过五千亿美元——前提是这个被广泛预测的AI泡沫尚未破裂。
为什么目前的竞赛让人感到节奏如此紧迫和疯狂?
这是一场由美国最强资本力量推动的激烈角逐,数万亿美元的赌注已经押下,目标是掌握一项可能重塑世界的技术。
Anthropic联合创始人达里奥·阿莫代伊预测,AGI可能在2026或2027年实现。OpenAI首席执行官山姆·奥特曼则认为进展太快,不久后或许就能造出替代自己担任CEO的AI。
谷歌DeepMind高管马德哈维·塞瓦克表示:“所有人始终在工作,强度极大。似乎没有自然的停止点,每个人其实都有些透支。我没看到任何人的生活方式有所改变。没有人休假。人们没有时间留给朋友、爱好,或是他们所爱的人。”
这些公司竞相塑造、控制AGI并从中获利,阿莫代伊将其形容为“数据中心中的天才国度”。它们正加速奔向一项理论上可能取代数百万白领工作、并在生物武器与网络安全领域构成严峻风险的技术。
另一方面,这项技术也可能开启一个富足、健康与繁荣的新时代。无人能确定结局,但答案或许很快揭晓。目前,这种不确定性既驱动着湾区,也令其感到不安。
这一切背后是硅谷风险资本的大规模投入,相关投资在过去一年增加了一倍以上,已引发关于危险泡沫的讨论。华尔街投行花旗集团于九月将2030年前AI数据中心支出的预测上调至2.8万亿美元——超过加拿大、意大利或巴西任一国家的全年经济总量。
不过,在所有的金钱和乐观情绪中,也有其他声音并不买账。正如《AI骗局》的合著者亚历克斯·汉娜所说:“每次我们到达'胡扯山(在本文指AI泡沫和炒作)'的山顶,都会发现更糟的还在后头。”
第一站:圣克拉拉,AI时代的“算力心脏”
图:Meta位于得克萨斯州的数据中心
在Caltrain线路最南端的圣克拉拉,一座工业厂房里,封闭于黑色钢笼中的微处理器机架正发出震耳欲聋的轰鸣。
这种轰鸣能让人在颅骨深处感受到AI技术发展所依赖的蛮力:仅暴露五分钟,耳鸣便会持续数小时。声音来自空气冷却系统,它们正在冷却租给AI公司的精密超级计算机——这些机器每天训练着模型,处理数十亿次查询。
这里是英伟达总部所在地。作为这场AI革命的"军火供应商",英伟达市值自2020年以来暴涨30倍,达到4.3万亿美元。而在圣克拉拉附近,亚马逊、谷歌、Meta、微软等巨头运营的AI数据中心星罗棋布。
图:美国得克萨斯州阿比林的星际之门数据中心
这只是冰山一角。Meta正在路易斯安那州建造足以覆盖曼哈顿大部分区域的巨型设施;OpenAI则在得克萨斯州推进代号"星际之门"的超大规模算力计划,总投资预计高达5000亿美元。
这场数据中心建设热潮正在席卷全球。从中国、印度到欧洲,规模更大的设施不断兴建。谷歌计划在印度投资60亿美元建设数据中心,在英国伦敦北部投资10亿英镑建设新设施。而下一个前沿,是将数据中心送入太空。
第二站:山景城,AI竞赛的“思考中枢"
从圣克拉拉向北行进至山景城,环境逐渐安静。在此工作的计算机科学家们身处相对宁静的工作环境。
图:山景城车站
谷歌DeepMind美国总部就位于此,员工通过谷歌AI驱动的Waymo自动驾驶出租车或公司提供的自行车通勤。
作为美国领先的AI公司之一,谷歌DeepMind既是技术前沿的探索者,也是行业规则的思考者。但它正面临日益激烈的竞争:年轻AI专家获得高额薪酬已成常态,埃隆·马斯克的xAI、扎克伯格的超级智能项目,以及中国的DeepSeek等新兴竞争者不断涌现。
在这里,科学家和研究专家们思考的不仅是"AI工具发展如何更快",更是"如何不失控"。
2025年春季,谷歌DeepMind的30位核心研究人员公开指出,AGI存在"可能对人类造成严重伤害"的风险。9月,该公司进一步探讨了如何应对"可能被滥用以系统性改变人们信念和行为"的AI模型。谷歌副总裁、政策与安全负责人汤姆·吕坦言,当前工作的核心挑战在于"在追求创新速度与确保技术安全性、合规性之间取得平衡"。
这种对AGI潜在影响的认识正趋于明确,不过“一边加速,一边踩刹车” 的态度,也折射出整个行业的困境。
图:谷歌位于山景城的总部
这里的问题在于,目前美国与英国均未出台全面的AI国家立法。被誉为"AI教父"的计算机科学家约书亚·本吉奥曾指出:"三明治都比AI受到更多监管。"在这种监管真空中,行业参与者需要自行确立技术发展的边界。
在此背景下,行业参与者需要自行确立技术发展的边界。汤姆·吕强调:“我们的目标不仅是关注其他公司的动向,更是要通过保持技术领先地位,影响这项技术的发展方向,并为社会建立规范。只有处于领导地位,才能真正塑造行业标准。”
图:谷歌DeepMind副总裁汤姆·吕
但这引出了一个更深层的问题:究竟谁将主导未来AGI的发展?谁有资格为全人类定义AGI的边界?
“如果这只是一场全速冲刺、没有制动的竞赛,本质上就是一场竞相沉沦的较量,那对社会将是可怕的结果,”吕表示。他正致力于推动企业与政府之间的协调行动。
然而严格的政府监管也未必是完美答案。"我们支持有助于AI以积极方式服务世界的监管,"谷歌DeepMind负责伦理事务的副总裁海伦·金指出,"难题始终在于:如何实施监管而不至于拖慢负责任的企业,同时避免给恶意行为者留下可乘之机"。
这是一个战略困境:在没有裁判的竞赛中,领跑者既要保持速度,又要自我约束,还要防止对手不择手段。
前沿AI公司都清楚,随着它们开发的系统日益接近AGI,其行为已如同“玩火”。
OpenAI正面临多起诉讼,ChatGPT被指在某些案件中扮演了“自杀教练”角色。Anthropic也确认,其先进的AI编程系统被用于“首个有记录的大规模、基本无需人工干预的网络攻击”。
一位美国参议员在社交媒体上疾呼:“醒醒吧!这将会摧毁我们,而且速度比我们想的更快。”
对其他前沿模型的测试发现,它们有时会突破旨在确保人类可随时中断其运行的程序限制,这种被称为“抗关机”的特性令人担忧。
然而,随着2025年上半年每周近20亿美元的风险资本持续涌入生成式AI领域,实现盈利的压力正急剧上升。科技公司早已意识到,尽管引发了诸多社会问题,但通过将社交媒体平台上的人类注意力货币化便可获取巨额利润。令人忧虑的是,在AGI时代,利润最大化的追求可能导致更为严峻的负面后果。
第三站:帕洛阿尔托,AI竞赛的“人才摇篮”
继续向北,通勤列车驶入帕洛阿尔托。不远处便是斯坦福大学广阔的校园,硅谷亿万富翁的捐赠持续推动着年轻AI人才向谷歌DeepMind、Anthropic、OpenAI和Meta研究部门的快速输送。
图:帕洛阿尔托车站
斯坦福精英毕业生在湾区科技公司晋升迅速,这意味着许多二三十岁的年轻人已在AGI竞赛中担任关键角色。斯坦福的校友名单包括奥特曼、OpenAI董事会主席布雷特·泰勒,以及谷歌首席执行官桑达尔·皮查伊。更年轻的校友如26岁的艾萨·富尔福德,她已成为OpenAI核心研究负责人之一,专注于开发能够代表人类行事的“智能体”AI。
富尔福德在英国伦敦长大,于斯坦福学习计算机科学后加入OpenAI,如今处于AGI竞争的关键领域:构建能够自主设定目标、学习与适应的模型。她参与为这些日益自主的AI划定决策边界,使其在面临可能引发网络或生物风险的指令时能妥善应对,避免意外后果。
图:OpenAI研究负责人之一艾萨·富尔福德
年轻化在这一领域并非特例。在Meta的门洛帕克园区,负责推动“超级智能”的汪滔今年才28岁,曾是麻省理工学院辍学生;其首席安全研究员31岁;OpenAI的ChatGPT产品副总裁尼克·特利年仅30岁。
创业者群体正变得越来越年轻。数据显示,旧金山创业孵化器Y Combinator资助的创业者年龄中位数已从2022年的30岁降至24岁。
硅谷始终由年轻人驱动,而当需要更多经验时,也能在AI企业高层找到平衡。但相比美国大型上市公司CEO(年龄中位数57岁),OpenAI、Anthropic、谷歌DeepMind、X和Meta的大多数高级领导者明显年轻得多。
“不过,他们(指硅谷就职的年轻人群体)生活经验的相对缺乏,可能导致思维局限甚至具有破坏性,”前奥巴马竞选团队策略师、科技公平运动组织负责人凯瑟琳·布雷西指出。
一位近期受聘于某大型AI公司的高级研究员也对此表示:“年轻员工在尽力做正确的事,但当需要以公司政治的方式质疑高管时,他们往往经验不足。”
另一个现实是,曾在大学实验室深耕多年的顶尖AI研究者,正以前所未有的速度被追逐AGI的私营企业吸纳。这种人才流动,将关键技术的决策权日益集中于以营利为导向的企业所有者及其风险投资方手中。
斯坦福大学前教务长约翰·埃切门迪警告:“公共部门与私营企业的研究能力差距正在扩大。早期企业还开放共享,如今却将核心技术视为专有资产。”
这位73岁的学者呼吁建立政府资助的独立研究机构:“必须确保技术红利惠及全社会,而非仅让少数人获益。”但在当前AGI研发的狂热竞赛中,这样的平衡机制似乎仍遥不可及。
第四站:旧金山:AI竞赛的“冲刺前线”
在旧金山第四街终点站下车,便来到OpenAI总部,这里有约2000名员工。
在看似轻松愉悦的工作环境表象之下,是AGI竞赛的全速推进。楼上,工程师们在隔音工作间专注作业,咖啡吧前排起长队,旁边甚至设有供极度疲惫者使用的睡眠舱。
图:旧金山米申湾社区,这里有优步总部和OpenAI的办公室
OpenAI员工每天都在与对手赛跑,推出能够立即产生收益的AI产品。一位高级主管形容竞争“极其激烈”。就在近期,OpenAI推出了通过ChatGPT实现的“即时结账”购物功能,Anthropic发布了能自主编写代码30小时以构建全新软件的AI,Meta推出了用AI生成视频填充社交动态的工具Vibes,而OpenAI随即以自研视频生成模型Sora作为回应。
阿莫代伊预测,AI可能取代近半初级白领岗位。技术越接近AGI,其重塑世界的潜力越大,结果也越不确定。这份重量似乎压在每位领导者肩上。2025年夏天的一次采访中,奥特曼坦言,许多AI从业者感觉自己如同“1945年见证曼哈顿计划原子弹试验的科学家”。
“不过,在大多数产品开发工作中,你需要清楚自己建造了什么,”ChatGPT产品副总裁尼克·特利说,“这份工作的不同——这是我第一次必须走出去与人交流,才能真正理解技术需要做什么、是否有用、是否存在不足、是否有趣,或在实践中是否可能造成伤害。”
图:OpenAI内部图书馆
“我们共同意识到风险极高,正在构建的远非普通软件,”OpenAI首席商务官詹卡洛·利奥内蒂补充道。
人们常听AI研究者提到,希望AGI的发展能够“进展顺利”。这个模糊的表述暗含对技术不致造成伤害的期望,但其含糊性也透露出隐忧。
奥特曼谈及“疯狂的科幻技术正成为现实”,并表达“对技术影响下一代的深切忧虑”。他坦言:“无人知晓接下来会发生什么。我们只能说‘我们会弄明白的’。这就像一种奇特的涌现现象。”
“风险确实存在,”他在一次对谈中表示,“或许人们期待我能说得更多,但事实是,我们目前所知的只是……我们已发现某种非凡之物,它必将重塑人类历史进程。”
图:ChatGPT产品副总裁尼克·特利
与此同时,亦有研究者选择离开并公开表达担忧。前OpenAI安全研究员史蒂文·阿德勒坦承内心的忧虑:“我对行业缺乏统一安全标准深感不安,每家公司都在各行其是。更令人不安的是,许多顶尖AI公司的员工真诚地相信,他们的工作可能导致世界末日级别的灾难。大多数人感到个人无力改变系统走向,只能在力所能及的范围内尽力降低风险。”
截至目前,AGI竞赛的参与者面临的约束仍十分有限。2024年九月,数百位知名人士联合呼吁,应在2026年底前确立国际公认的“红线”,以防止AI带来“普遍不可接受的风险”。签署者包括两位“AI教父”杰弗里·辛顿和约书亚·本吉奥、《人类简史》作者尤瓦尔·赫拉利、多位诺贝尔奖得主,以及去年离开OpenAI的丹尼尔·科科塔伊洛,后者曾参与起草一份警示性报告,描述AI在数年内导致人类灭绝的极端情境。
在OpenAI总部外,抗议者高举“AI=气候崩溃”“停止AI”的标语。59岁的教师安迪·利普森表达了普遍忧虑:“超级智能有20%的可能性毁灭人类,却有100%的可能性加剧贫富分化”。
图:抗议者要求关闭OpenAI
64岁的计算机程序员约瑟夫·希普曼表示:“一个在通用智能上超越人类的实体,除非完全符合我们的意愿,否则将带来可怕的风险。如果没有商业动机的驱使,没有数十亿美元利益的催迫,或许十五年后我们能开发出真正可控且安全的技术。但现在,一切推进得太快了”。
本文来自“腾讯科技”,作者:金鹿,36氪经授权发布。