从干洗店到伊丽莎白女王工程奖,李飞飞逆行硅谷技术神话,聚焦AI去人性化风险
2025 年春,李飞飞荣获「伊丽莎白女王工程奖」,以表彰其在计算机视觉与深度学习领域的奠基性贡献。作为 ImageNet 项目的核心推动者,她开创了数据驱动的视觉识别方法,也提出「以人为本」的 AI 理念,在硅谷的商业化浪潮中始终保持对 AI 伦理、社会价值与去人性化风险的警觉。然而,其少数派身份使她处于在科研成就与产业实践之间的微妙地带,引发持续讨论。
2025 年春,普林斯顿大学物理学学士、加州理工学院计算神经科学博士李飞飞教授荣获「伊丽莎白女王工程奖(Queen Elizabeth Prize for Engineering)」,这一奖项被视为「工程领域的诺贝尔奖」。评审团表彰了李飞飞在计算机视觉与深度学习中的奠基性工作,认为她的研究「让机器第一次以接近人类的方式看见世界」。
「工程不止是算力与算法,更是责任与共情。」李飞飞在领奖演讲中强调,技术的突破并不等于理解的进步。对于 AI 加速的时代,她始终保持着一种警觉:算法在重构语言、图像与知识体系的同时,也在重塑社会的权力结构与人类的自我感知。AI的最大风险在于「去人性化」,她在个人回忆录 The Worlds I See 序言中写道,「如果人工智能忘记了人类的价值,它将失去存在的意义。」
在硅谷的产业叙事中,李飞飞的反对声音格外罕见。相比强调规模与速度,她更关注智能背后的社会结构与伦理基础:当机器愈发理解人类,人类是否仍真正理解自己?李飞飞的故事不止于科学成就,而更关乎来自非主流少数派的人文话语。如何让 AI 技术重新回到以人为中心的轨道,是她在奖项、荣誉与赞誉之外,真正想回答的问题。
李飞飞领奖照片
作为「边缘者」,她选择脱离宏大叙事
1976 年,李飞飞出生在北京,父亲是物理学家,母亲是工程师。12 岁时,几乎不会说英语的她随父母移民美国新泽西州。移民初期的生活非常艰难,父母靠在干洗店和餐馆工作维持生计,她一边努力学习英语,一边在空闲时间在餐馆和父母的干洗店打工,以补贴家用。在采访中,李飞飞回忆道,「作为移民或者移民家庭,生活真的很难」。这段经历也成为她后来的「移民意识」的边缘心理基点:在西方的环境中,作为「她者」,李飞飞既见证了美国科技体系的繁荣,也体验到社会结构的不平等。她者:女性身份的「他者」,在权力结构、社会叙事、文化建构中,被放置在主流/主体之外,通过「女性」身份被凝视、被定义、被边缘化或被他者化的那类存在。它来自西方哲学中的 Other / Otherness(他者/他性) 概念,后来在性别研究中被广泛使用。
2000 年,李飞飞在加州理工学院攻读计算神经科学博士,研究方向聚焦于视觉认知与人工智能的交叉领域(Visual Object Recognition and the Brain)。这段跨学科训练让她意识到「视觉」不仅是感知问题,更是理解问题:机器是否也能像人类一样,通过经验、上下文与记忆来理解世界?这一思考,成为她此后提出 ImageNet 计划的思想基础。
李飞飞的博士学位论文
2007 年,李飞飞在普林斯顿大学任教期间,与研究团队启动了后来影响深远的 ImageNet 项目。2009 年,李飞飞在论文「ImageNet: A Large-Scale Hierarchical Image Database」中提到,当时,大多数计算机视觉算法严重依赖于手工制作的特征和小数据集,「数据驱动深度学习」设想颇具争议。但事实证明,她的坚持并没有被时代抛下。随着 AI 的技术范式悄然更迭,曾在学界被视为「冒险赌注」的大规模数据驱动方法,最终成为主流共识。
正如 Venturebeat 在报道中指出,李飞飞所推动的「数据驱动范式」改变了计算机视觉乃至整个 AI 的发展路径,「2012 年 ImageNet 竞赛之后,媒体迅速关注到了深度学习的趋势。到 2013 年,几乎所有的计算机视觉研究都转向了神经网络。」
VB 有关深度学习发展的报道
于是,在 AI 狂潮来临之际,这位曾经在移民边缘身份中艰难前行的科学家,终于被推向了时代的中心。
然而,尽管其研究成果奠定了深度学习时代的基础,李飞飞却从未完全融入硅谷主导的技术叙事:边缘身份赋予她的独特视角,使她面对席卷全球的 AI 狂热始终保持冷峻的距离感。
在硅谷的主流叙事中,AI 被描绘为技术竞赛、资本博弈和国家战略的核心议题,但李飞飞选择从人文、伦理的角度重新审视这一体系。她在多次公开场合指出,AI 的发展正被过度商业化和军事化,研究资源和社会想象力都集中于「更大模型」和「更强算力」,却忽视了技术的社会后果。
2019 年,李飞飞重返斯坦福,并与 Marc Tessier-Lavigne、John Etchemendy 等人共同创立 Stanford Institute for Human-Centered Artificial Intelligence(HAI),将伦理、公共部门与弱势群体重新纳入 AI 的技术设计,并在其使命(Mission Statement)中明确写入一条核心原则:AI 必须服务于人类最广义的福祉。
在 HAI 机构发布的采访中,李飞飞直言道,「我并非典型的科技精英,我是移民、女性、亚裔、学者,这些身份赋予了我独特的视角和观点。人工智能的未来影响如此深远,意味着我们必须保持自主权。我们必须选择如何构建和使用这项技术。如果我们放弃自主权,将会陷入自由落体式的坠落。」
斯坦福 HAI 机构对李飞飞的采访
反对硅谷技术神话,李飞飞警示「AI 去人性化」风险
与硅谷的主流叙事不同,李飞飞持续倡导「AI4Humanity」的理念,将社会价值和伦理纳入技术发展的考量。她警示技术进步可能带来的「去人性化」风险,强调 AI 应以人为本,技术必须与人类需求与价值保持一致。
2018 年面对 Google 与美国国防部合作开发的军事无人机图像识别项目 Project Maven 时,李飞飞在邮件中明确了自己对 AI 军事化的反对立场:「AI 应该是造福人类的,Google 不能让公众认为我们在开发武器。」
Wired 对李飞飞 AI4Humanity 的报道
在接受 Issues 采访时,李飞飞也对 AI 的潜在风险直言不讳,「AI 技术的影响是双刃的。对社会而言,这项技术可以治愈疾病、发现药物、寻找新材料、创造气候解决方案,与此同时也可能带来风险,例如虚假信息传播和劳动力市场剧烈变革。」
Issues 对李飞飞的采访报道
事实上,为进一步限制 AI 风险,李飞飞已多次在公共场合强调建立 AI 伦理监管机制的必要性。在 McKinsey&Company 的采访中,李飞飞就冷静表示,建立基于法律体系的监管机制是非常紧迫的事,「理智地说,这是人类在获得新发明和新发现时必须的。这个机制将部分通过教育来实现,我们需要让公众、政策制定者和决策者了解这项技术的威力、局限性和事实,然后将规范融入其中。而监管框架将通过法律保障执行和实施。」
McKinsey&Company 对李飞飞的采访
同时,为推动教育在 AI 伦理监管中的驱动作用,在 2025 年 5 月在旧金山举行的 Semafor Tech 活动上,李飞飞还呼吁特朗普政府减少对大学财政的干预。日前,为打击移民行动,特朗普政府削减了数十亿美元的大学科研拨款,并吊销数千名学生签证。对此,李飞飞表示,随着全球科技竞争日益激烈,制裁研究机构将会为 AI 的伦理发展带来潜在风险。
「公共部门,尤其是高等教育,一直是美国创新生态系统的关键组成部分,也是我们经济增长的重要组成部分,我们所知的几乎所有人工智能经典知识都来自学术研究,无论是算法、数据驱动方法,还是早期微处理器研究。」李飞飞说,「政府应继续为高等教育和公共部门提供充足的资源,开展这种创新性、无拘无束、以好奇心驱动的研究,对于我们生态系统的健康发展以及培养下一代至关重要。」
此外,李飞飞还直言,美国对某些国家公民的签证配额一直是许多人才留下的难题,「平心而论,我希望我的学生能够获得工作签证,并找到移民途径。」
Semafor 对 Semafor Tech 活动的报道
总之,面对硅谷狂热的技术乐观主义,李飞飞始终保持着反思者的姿态,警惕着 AI 「去人性化」的风险。「很多人,尤其是在硅谷,都在谈论提高生产力,但生产力的提高并不意味着人人都能共享繁荣。我们要认识到 AI 只是一种工具,工具本身不具备价值,工具的价值根本源于人类价值。」
她坚持表示,无论从个人、社区还是社会层面来看,以人为本的人工智能方法都是必要的。「我们需要一个以人为本的框架,以个人、社区、社会的同心圆式责任来确保实现 AI 应当改善人类福祉的共同承诺。」
基于边缘经验,诠释复杂生态位的机遇与负担
面对女性、移民、亚裔、学者的多重边缘身份,李飞飞承认,这些经历极大影响了她的研究和主张。李飞飞在 HAI 的采访中提到,正是这些边缘经验,让她看待新技术的视角与那些从小就生活在更稳定的环境中、五岁就开始接触电脑的孩子截然不同,能持续意识到技术体系的结构性偏差。
「科学探索未知,正如移民探索未知一样。两者都身处充满不确定性的旅程,你必须找到自己的指路明灯。事实上,我认为这正是我想要从事以人为本的人工智能的原因。移民经历、干洗店生意、父母的健康——我所经历的一切都深深植根于人性之中。这赋予了我独特的视角和观点。」李飞飞直言。
然而,边缘身份带来的洞见,也伴随着误解、争议与压力。作为全球科技领域最具影响力的女性之一,李飞飞常被媒体塑造为「AI 教母」,但李飞飞在多次公开场合表达过对这种符号化的不适,并厌倦被称作「女性榜样」。
「我不太喜欢被称作 AI 教母。」李飞飞在 Axios 的报道中谈到。科技行业对于女性的期待过度符号化,致使女性科学家往往承担了一种「角色式的想象」:女性被频繁邀请讲述「励志故事」,被要求代表多元、代表突破、代表希望,却不被视为普通的科学家、研究者或决策者,平等地参与核心技术和战略讨论。
「但我确实想肯定女性的贡献,因为她们常常在科学史上被忽视。我希望 AI 领域能有不止一位教母。」李飞飞进一步表示,真正的挑战是让性别多样性在行业中成为常态。而为推动这一理想逐步走向现实,她在斯坦福开展了 AI4All 教育计划,旨在扶持女性与少数族裔进入AI领域。
Axios 对李飞飞的报道
此外,李飞飞的族裔身份,似乎让外界对其研究成果的种族问题更为关注。
虽然 ImageNet 被视为计算机视觉研究的基石,但该数据集的「people」子树长期遭到学界与媒体的批评。早在 2019 年,The Art Newspaper 就报道了外界对 ImageNet 潜在种族主义倾向的质疑,认为该数据库经常将白人分配到与实际情况严重不符的标签。例如,艺术家 Trevor Paglen 和研究员 Kate Crawford 在使用 ImageNet 后,就在网络上给了这个数据集并不友好的评价,「The Verge 的一位编辑被归类为烟斗吸烟者和空乘人员,还有其他社交媒体用户报告称,他们被用种族歧视性词语和其他极具冒犯性的词语来描述。」
虽然大量负面评价促使 ImageNet 团队对数据集进行了清理与重构讨论,删除了约 60 万张照片,但 ImageNet 「中性基石」的假设仍因此受到怀疑。
The Art Newspaper 对 ImageNet 负面消息的报道
同时,李飞飞的少数派观点,使她不得不立于硅谷主流与广罗大众间的灰色地带,她在 AI 产业中的角色也因此引发了持续争议。
「她是当今 AI 蓬勃发展背后的重要人物,但并非所有计算机科学家都认为她的巨型视觉数据库想法是正确的。」AP 撰稿人 Matt Obrien 在一则专栏稿件中写道。对于李飞飞等少数派科学家所关注的「以人为本」「AI 伦理」等议题,一些研究者长期将其背后的极端风险论批判为宗教化的宣传。例如,Palantir 首席技术官 Shyam Sankar 就表示,他一直不相信「AI 末日论」的论调,AI 带来灾难性后果的可能性极低,是「超人类主义者」在散播谣言。
「威胁论完全是一种融资噱头,」Sankar 对此不以为然,「处于开发前沿的公司可以通过宣扬这一点来获取投资。」
AP 有关李飞飞的报道
然而,另一部分评论者却认为,李飞飞对技术与资本结合趋势产生的事实推助,与其科研愿景之间存在错位:尽管长期强调「以人为本」,反对 AI 的过度商业化,但作为 Google Cloud AI 的前首席科学家,她不可避免地推动了 AI 的产业化进程。
因此,作为「人本 AI」的旗帜性人物和商业化 AI 基础设施的塑造者,李飞飞被置于略显微妙的交叉地带。
Business Insider 的报道
总之,在 AI 神话下,李飞飞的立场本身折射出科学家、算法与人类价值之间的复杂互动,并早已成为充满张力的警示标识:科技能否独立于社会、伦理与人文考量而存在,又如何在快速商业化与长远社会责任之间取得平衡?李飞飞对「人本 AI」的叩问,仍是硅谷技术崇拜叙事之外悬而未决的挑战。
参考链接:
1.https://www.businessinsider.com/palantir-shyam-sankar-skeptical-ai-jobs-2025-10
2.https://apnews.com/article/ai-pioneer-feifei-li-stanford-computer-vision-imagenet-702717c10defd89feabf01e6c1566a4b
3.https://www.wired.com/story/fei-fei-li-artificial-intelligence-humanity/
4.https://www.theartnewspaper.com/2019/09/23/leading-online-database-to-remove-600000-images-after-art-project-reveals-its-racist-bias
本文来自微信公众号“HyperAI超神经”,作者:紫晗,36氪经授权发布。