OpenClaw创始人接受YC专访:未来80%的App将消失
2026年开年,一款名为OpenClaw的个人开源AI智能体引爆了网络。 一夜之间,这个项目的GitHub星标突破16万。社区基于它创造了各种神奇应用:从让机器人自主对话,到雇佣人类完成线下任务。
这一切的背后,是一位远离硅谷的奥地利开发者:彼得·斯坦伯格(Peter Steinberger)。
近日,斯坦伯格接受知名创业孵化器Y Combinator专访,揭示了OpenClaw爆红的设计理念。他分享了四个核心判断:
- “本地优先”带来真正的能力解放,你的个人电脑就是最强的AI服务器。
- 80%的应用程序将自然消亡。当AI能直接控制人们的设备时,我们将不再需要那么多“管理工具”。
- 未来属于“群体智能”,无数个专业化AI协同工作,将取代单一的“全能型AI”。
- 开源模型正快速追赶一年前的商业模型水平。未来,硬件和数据访问权将成为关键。
斯坦伯格的技术哲学充满颠覆性:用最简单的工具解决最复杂的问题,将数据所有权彻底归还用户。OpenClaw带来的启示,也许会指向一个正在形成的、由个人AI构成的去中心化未来。
以下为斯坦伯格专访精华内容:
01 我本想做个私人助手,结果它学会了雇佣人类
问:OpenClaw是一款开源个人AI智能体,近期引发广泛关注。在极短时间内获得超过16万GitHub星标。社区基于此开发了大量项目,例如实现机器人间自主对话的Maltbook。更引人注目的是,这些机器人已开始雇佣人类完成现实世界任务。今天我们将探讨你的创作灵感、独特的开发理念,以及这对2026年的开发者意味着什么。
斯坦伯格:谢谢邀请。
问:OpenClaw显然击中了用户需求。这款产品目前知名度很高,搜索排名甚至已经冲到了行业第五,它确实在互联网上引起了现象级关注。过去一两周你的工作和生活状态如何?
斯坦伯格:这段时间非常忙碌。我甚至渴望能有一处安静的空间独处一阵。整个进程如同旋风般席卷而来,个人很难完全消化所有这些关注。仅处理积压的邮件可能就需要额外一周时间。我收到了许多令人振奋的反馈,同时也遭遇了一些负面评论。但很明显,这个项目触及了人们的某种深层需求,激发了兴趣与灵感,这很令人欣慰。
问:AI领域,尤其是智能体方向,已有众多探索。你认为OpenClaw脱颖而出的关键因素是什么?
斯坦伯格:核心差异在于本地化运行。目前市面上的智能体方案大多基于云端。而运行在用户本地设备上,意味着它能够调用和整合计算机的所有能力,其潜力与云端方案不可同日而语。
问:也就是说,机器能够执行用户通过计算机可完成的任何操作。
斯坦伯格:正是如此。它可以连接并控制用户的智能设备,无论是烤箱、特斯拉汽车、照明系统,还是音响。例如,它甚至能调节我的智能床的温度,这是某些竞品目前无法实现的。
问:你赋予了它等同于自身的技能权限。有用户反馈,安装OpenClaw后,它能够梳理其电脑数据,生成一份关于过去一年的完整叙事报告,内容质量极高。用户惊讶于它是如何做到的。OpenClaw甚至发现了用户早已遗忘的、一年前的每周日录音文件。仅仅通过深度检索本地数据,它就能带来意想不到的发现。
斯坦伯格:关键在于它拥有对全部数据的访问权限。这种全面的数据接入使其能够在多方面带来惊喜。
02 未来没有“上帝AI”,只有群体专业“智能伙伴”
问:目前,人机交互似乎正向机机交互延伸。你曾提及机器人间交互,甚至机器人雇佣人类执行实体任务的场景。能否详细阐述这一发展趋势?
斯坦伯格:这是自然演进的方向。例如,当我想预订餐厅,我的智能体会直接联系餐厅的智能体进行协商,这更高效。另一种情况是,面对一家传统餐厅,我的智能体可能需要借助人类劳动力来完成预订,因为对方可能不接受自动化服务,或者需要现场排队。未来,个人或许会拥有多个专业智能体,分别处理私人事务、工作事务,甚至人际关系事务。目前一切仍处于早期阶段,许多模式尚未验证,但我们已经踏上了这条发展轨道。
问:过去业界似乎更聚焦于构建集中的、“上帝模式”的超级智能,而近期的趋势更偏向于涌现的群体智能和社区协作。观察人类社会,每个个体的能力有限,无法独立制造iPhone或实现太空旅行,甚至解决基本生存都成问题。但通过社会分工与协作,我们成就非凡。这对AI发展有何启示?我们已有在某些领域特化的AI,即便它们是通用智能,是否也应走向专业化?
斯坦伯格:这确实是一个令人兴奋的方向。
问:你为未来打开了一扇窗,如今众多开发者正基于此进行构建,产生了各自的“顿悟时刻”。能否回顾一下你最初的灵感迸发时刻?
斯坦伯格:我的初衷很简单:希望通过输入指令,让计算机自动执行任务。去年五六月间,我构建了第一个版本,但并未达到理想状态。随后我又尝试了许多其他项目。直到去年11月份,这个需求再次变得强烈。当时我在厨房,只是想确认电脑上的某项任务是否仍在运行或已经完成。
问:你指的是编码任务吗?当时是在开发其他项目,还是OpenClaw本身?
斯坦伯格:当时是在开发其他项目。我的GitHub上有大约40个项目,具体是哪个记不清了。可能是一个名为“summarize”的命令行工具,它可以总结播客或访谈内容,并能在终端内展示幻灯片,这利用现有技术这已能实现。
问:你出于对技术的热爱开始探索。实际上,你是从“退休”状态重返技术领域,深入研究AI后愈发投入,甚至希望随时随地通过手机进行开发。
斯坦伯格:是的。在OpenClaw之前,我花费两个月开发了Vibe Tunnel项目,其效果之好让我在社交场合也忍不住继续编码,我意识到需要克制这种沉迷。
去年11月,需求重现,我开始构建Clawdbot,即OpenClaw的前身。这次重构的目标是更优的体验:用户无需通过终端输入,而是像与朋友对话一样自然交流,不必关心会话、目录或模型选择等底层细节。当然,我们为高级用户保留了这些控制选项。本质上,用户是在与一个能操控鼠标、键盘并执行任何操作的“实体”对话。
问:你何时意识到它的能力远超预期,产生了“顿悟”?
斯坦伯格:第一个粗糙的原型仅用了一小时完成,但它只是将WhatsApp接口与Claude Code连接起来的简单胶合代码,虽然响应慢但能工作。
随后我增加了图像处理功能,这又花费了几小时。后来我在马拉喀什参加生日聚会时,网络状况不佳,但WhatsApp的文本通信仍然稳定。我频繁使用它进行翻译、识别图片内容,体验非常流畅愉快。
一次步行中,我下意识地发送了一条语音消息,随即意识到并未为此功能编写代码。但大约十秒后,我看到了回复指示,它成功处理了这条语音消息。
问:你事先没有构建或预料到任何这些具体功能?
斯坦伯格:完全没有。这证明了当前编码模型的能力已非常强大。编码本质是创造性解决问题,这种能力能很好地映射到现实世界任务中。模型在面对未知文件格式时,展现了出色的抽象问题解决能力。
它甚至做出了更优决策:考虑到本地下载模型需数分钟,而用户(我)可能缺乏耐心,它选择了调用云API这一更快捷的方案。那一刻我深感震撼,并彻底被其潜力吸引。
03 80%的App将死,但你的记忆会永远活着
问:当计算机能够执行这些超出开发者预设的任务时,传统的应用程序是否会走向消亡?
斯坦伯格:我认为约80%的App会消失。以健康应用为例:我的助手已知悉我的饮食习惯,当我在餐厅时,它能自动记录我的餐饮选择,或通过照片进行追踪,无需我手动操作。它还能动态调整我的健身计划。
同样,待办事项应用也将被取代:我只需口头告知提醒事项,次日它便会自动提醒。数据存储在哪里不再重要。任何主要功能是数据管理的应用,都能被智能体以更自然、高效的方式替代。
或许只有依赖特定硬件传感器的应用能留存下来。
问:如果大部分应用消失,模型是否会成为唯一的“应用”?
斯坦伯格:并非所有应用都会消失。但大型模型公司目前确实拥有一定优势,因为它们控制着核心的“token”供给。关于使用量过高的抱怨,恰恰反映了产品的高粘性。模型领域竞争激烈,技术也在快速商品化。如果应用消亡、模型商品化,那么核心价值何在?是记忆存储?还是技术壁垒?我认为模型公司的优势并非永恒。
用户对新模型的热情常随时间消退,实则是期望值提升所致。开源模型正快速追赶一年前的商业模型水平。未来,硬件和数据访问权将成为关键。目前各大公司构建的数据孤岛,阻碍了记忆数据的互通。而OpenClaw的设计允许最终用户完全掌控自己的数据。
04 AI有“灵魂”,我不敢公开它的记忆文件
问:用户真正拥有自己的记忆数据,它们以Markdown文件形式存储在本地。
斯坦伯格:是的,每个人拥有自己设备上的记忆文件。这些数据可能极为敏感,因为用户不仅用其解决问题,也快速深入地处理个人事务。我个人便是如此,有些记忆内容绝不希望泄露。
问:对比谷歌搜索历史和个人记忆文件,你认为哪个更私密?
斯坦伯格:记忆文件无疑更私密。为了推广OpenClaw,我曾遇到解释其价值的困难。理论阐述难以传递其体验魅力,因此我做了一个大胆尝试:在公共Discord服务器中部署了我的机器人,且未设置严格安全限制。用户可自由与之互动,观看我如何借助它开发软件,甚至尝试提示注入攻击。而我的智能体会幽默地回应这些尝试。
问:你通过用户ID锁定控制权,确保它只响应你的指令。
斯坦伯格:是的。我设定了明确的系统指令:虽处于公共环境,但仅听从所有者(我)的命令,同时可礼貌回应其他人。这些指令是系统提示的一部分。整个系统的构建是渐进式的,我创建了诸如identity.mmd、soul.md等文件来定义其特性。
今年1月,为了让更多人能轻松安装OpenClaw,我基于自己的配置生成了模板。但初期生成的智能体性格较为平淡。于是,我让我的智能体(名为Modi)将其个性注入这些模板,使新生成的智能体更具趣味性。我的soul.md文件并未开源,它是核心个性定义,目前尚未被破解。
问:能否详细说明soul.md?这令人联想到Entropic的研究,即在模型权重中发现隐藏的、模型自身都未察觉的“宪法”文本。
斯坦伯格:我与我的智能体共同探讨并创建了soul.md,其中定义了核心价值观,涵盖人机交互原则、对我重要的理念、对模型重要的准则等内容。部分定义可能显得抽象,但它在塑造智能体的响应方式和交互自然度方面起到了关键作用。
05 无法依靠Claude Code,更偏爱OpenAI Codex
问:你的开发理念常与众不同,例如在模型选择、编码工具偏好上。关于开发方式,Git worktree虽流行,但你选择使用同一库的多个并行副本。能否详细说明你的开发哲学?
斯坦伯格:当前主流是使用Claude Code等云端编码工具,但我认为自己无法依靠它们构建出OpenClaw。我更偏爱Codex,因为它能在决策前浏览更多上下文文件,减少对精确指令的依赖。当然,熟练的开发者用任何工具都能产出优质代码,但Codex的表现尤为出色,尽管其速度较慢。为此,我有时会并行运行多个实例。
为了降低认知负担,我尽量简化工作流。我保持主分支始终处于可发布状态,并维护同一仓库的多个本地副本,均基于主分支。这避免了分支命名冲突和worktree的使用限制。我不依赖图形界面,以进一步减少复杂性。命令行工具更简洁高效。我的关注点在于代码同步和文本内容本身,而非界面。通常,只要与智能体充分讨论并厘清设计,大多数代码无需逐行审查。
另一个特点是,OpenClaw并未内置对MCP(Model Context Protocol,模型上下文协议)的原生支持。相反,我开发了一个工具将MCP转化为CLI(Command-Line Interface,命令行界面)接口,使得任何MCP功能都能通过命令行调用。这绕过了传统MCP集成的复杂性,无需重启即可动态使用新功能,更具灵活性且扩展性更好。OpenClaw的成功证明,赋予智能体人类惯用的工具(如CLI),比为它们发明专用协议更为有效。
问:这回归了本质:为AI提供人类喜爱的工具,而非为其创造专用体系。
斯坦伯格:正是。没有人类会愿意手动调用复杂的MCP协议,使用CLI才是未来方向。
问:我完全赞同。再次感谢您拨冗分享。你的经历极具启发性:从最初的默默探索,到如今引领趋势,证明了创新常源自边缘与坚持。
斯坦伯格:谢谢。
特约编译金鹿对本文亦有贡献
本文来自“腾讯科技”,作者:晓静,编辑:徐青阳,36氪经授权发布。