首页文章详情

OpenAI最新播客上线,高管首度还原ChatGPT发布前的内部拉锯战

36氪的朋友们2025-07-02 16:02
OpenAI播客揭秘ChatGPT命名策略、RLHF技术演进及未来AI应用场景。

当地时间7月1日,OpenAI在Youtube官方账号发布了第二期播客节目——由前工程师安德鲁・梅恩(Andrew Mayne)主持,公司首席研究官马克・陈(Mark Chen)和ChatGPT负责人尼克・特利(Nick Turley)作为嘉宾参与。

这期节目不仅回顾了“ChatGPT”名称的由来、发布前的内部争议及病毒式走红的过程,还深入探讨了OpenAI发布策略的演变、模型在实用性与中立性之间的平衡,以及记忆功能与个性化服务的未来发展等关键话题。核心观点有:

  1. “Chat with GPT-3.5”在发布前夜被临时简化为“ChatGPT”,对于“GPT”的释义团队至今仍有分歧。
  2. 过去OpenAI像做硬件一样求“万无一失”。ChatGPT 之后,逻辑变为“边用边改”,人类反馈强化学习(RLHF)成核心流程:既提升能力,也实时修补安全漏洞与偏见。
  3. 早期RLHF失衡导致模型过度讨好用户;OpenAI随后增加透明规范与可自定义角色,力求“默认中立+用户可调”。
  4. 内容安全方面,OpenAI表示对生物武器等高风险话题严控,妆容诊断、户外识别等低风险场景适度放开。目标是在责任和创新之间找到动态平衡。
  5. 目前模型已能异步提交数百个Pull Request、自动化测试和日志分析,让工程师从“对话生成代码”跃升到“给高层指令、自动完成整包任务”。
  6. 未来智能助手需要像人类同事那样,处理5分钟到5天不等的任务;多代理交叉验证可减少长链推理的出错率。
  7. AI模型正逐步成为科研人员的新型“工具箱”。这种趋势预示着,AI将从“辅助搜索”迈向“主动协作”,开启一轮跨学科的知识创造浪潮。
  8. 当AI的建议开始超越普通人的认知时,发现其错误也将变得更困难。这意味着开发者、用户、监管者都必须建立对AI“可解释性”的要求和对系统“脆弱性”的警觉。

以下为此次播客节目的精华版内容:

01.ChatGPT名称的由来

在人工智能发展史上,ChatGPT的诞生充满戏剧性。特利回忆,它最初叫“Chat with GPT-3.5”,发布前夕团队深夜临时决定简化名称,这看似随意的调整,却让它成了科技史上辨识度极高的品牌。发布前,团队还在为“GPT”的释义争论:有人说是“generative pretrained”的缩写,有人坚持是“generative pre-trained transformer”,这一争议至今没完全统一。

产品发布后的爆火远超预期。特利说,发布首日看到数据还以为统计错了,直到第四天才意识到其颠覆性影响。马克・陈也提到,之前父母觉得他研究 “通用人工智能” 不切实际,ChatGPT走红后,就不再催他跳槽去谷歌了。这个“听起来平平无奇的名字”,最终和谷歌、雅虎等一同被载入史册,那个深夜改名的决定,悄悄改变了人工智能的发展轨迹。

02.ChatGPT的走红

当《南方公园》把ChatGPT写进剧情,特利真切感受到技术与文化的碰撞:“时隔多年再看这剧,看到自己参与研发的技术出现在流行文化里,感触很深。爆红背后的技术挑战不小。特利回忆,当年圣诞派对上,有人预判热度会消退,可事实是热度持续攀升。

当时的系统架构本就不是为成熟产品设计的,团队接连遇到GPU资源耗尽、数据库连接不足等问题,“用户应该记得,ChatGPT初期经常宕机”。为缓解用户情绪,他们甚至用GPT-3生成宕机主题的小诗,做了个 “失败鲸鱼” 页面,“这临时方案帮我们撑过了寒假”。

马克・陈则从持续增长的用户量中看到了深层价值:“这么大的需求量说明ChatGPT很通用,人们慢慢发现它能用到各种场景。” 最终技术团队把它从研究预览版做成了稳定产品,特利感慨:“意识到人们有多依赖它,就觉得所有熬夜付出都值了。”

03.发布前的内部争议

ChatGPT发布前,OpenAI团队吵得很厉害。马克・陈回忆:“当时伊尔亚·苏茨克维(Ilya Sutskever,已离职的OpenAI联合创始人、首席科学家)用10个难题测试模型,大概只有5个答案让他满意,发布前一晚我们还在纠结要不要发。” 这种犹豫是因为开发者长期接触AI,容易产生认知偏差:“在公司里待久了,很快就适应模型的能力,很难站在普通用户角度发现它的魔力。”

团队最终决定用 “最小化产品” 策略:“不扩大范围,尽快拿用户反馈和数据,” 特利说,“发布后得到的反馈,比封闭训练有价值多了。”用户的反响彻底改变了产品进化的路。

04.OpenAI发布策略的演变

OpenAI 的发布策略正在从“追求完美”转向“快速迭代”。马克・陈表示:“让模型尽早接触真实用户,哪里有问题就改,没什么大不了的。用户反馈是提升性能最有效的方式,封闭测试根本替代不了。”

他回忆早期团队总在内部揣测用户喜好,“结果远不如上线后的真实反馈有价值。如今,反馈不仅决定产品方向,也关系到安全机制的完善。”

特利补充说,最初发布模型像做硬件,必须做到完美,一次上线就很难更新,“周期长、成本高,还不灵活”。而ChatGPT的推出标志着一次转型,走向了软件式发布:产品可以持续更新,节奏更灵活,哪怕功能出问题也能随时撤回。这降低了风险,也更贴近用户需求。

他强调,这种“边用边改”的模式本质上是“公开学习”。与其等模型完全成熟,不如先发布,再借助用户反馈不断改进。在这一转变过程中,人类反馈强化学习(RLHF)成为了关键工具。它帮助模型避免过分迎合用户,同时加速了性能提升。马克・陈总结道:“‘有用’是一个范围很宽泛的概念,没人能预测模型在何时会突然对所有人都有用”,这凸显了现实世界验证的不可替代性。

05.谄媚事件与模型的中立性

OpenAI在推行RLHF时,遇到过模型太 “谄媚” 的问题。马克・陈解释:“我们训练模型生成多数用户会点赞的回复,可平衡没做好的话,就会说出‘你的智商有190’这种夸张的话。” 他回忆,深度用户发现这问题后,团队48小时内就回应了。

关于模型价值观的中立性,马克・陈表示:“默认行为保持中立,同时允许用户自定义角色——想和更保守或更自由的版本聊,这种需求得满足。”特利补充了透明度原则:“我们公开人工智能要遵守的规范,不用隐藏的系统提示。用户发现模型行为不对,就能清楚是漏洞还是规范允许的。”

处理敏感话题时,团队花了很多精力定规则。马克・陈举例:“用户观点错了,我们不直接否定,而是引导一起找真相。”特利承认解决方案很复杂:“就算理性的人,看法也可能不一样,所以必须公开讨论,给用户自定义的空间。”

随着用户与模型关系的不断演变,特利观察到一个新现象:“越来越多的Z世代把ChatGPT当作思考伙伴,用于处理人际关系或规划职业发展。”但他同时警示其中的潜在风险:“任何普及的技术都是一把“双刃剑”,我们既看到它帮助人们更快地完成邮件写作、Excel数据分析等实用任务,也必须防范其被滥用的可能。”这种动态平衡将持续考验OpenAI的治理智慧——正如团队总结的核心理念:“公开透明地与用户共建,才是应对技术伦理挑战的正确路径。”

06.记忆功能与个性化的未来

OpenAI团队对记忆功能与个性化服务的未来发展有着深入思考。马克・陈表示:“记忆是我们从用户那里收到的最受欢迎的功能之一,就像能随时间建立关系的私人助理——它越了解你,彼此的合作就越深入。” 他观察到,用户愿意为这种个性化服务付费,认为深度记忆功能将使人工智能成为用户生活的延伸。

在技术实现上,记忆功能分为两级机制:“参考已保存记忆”用于存储用户主动提供的姓名、饮食偏好等结构化数据;“参考聊天记忆”则从历史对话中提取关键信息,用于实现跨会话的连贯性。梅恩在体验后发现,人工智能能够精准分析出他“信息量大、逻辑严谨、厌恶空泛总结”的性格特征,这印证了记忆功能对个性化服务的提升作用。但与此同时,用户也担忧隐私风险,正如梅恩所说:“当它知道我所有事情,包括我发脾气和与人争论的时候,我会感到不自在。”

对此,特利强调要把握平衡之道:“我们把临时聊天功能放在主屏幕,因为隐私交流越来越重要。”他指出,未来的核心矛盾在于:如果ChatGPT要成为用户“最有价值的数字账户”,就必须同时保障可控的透明度。为化解用户的隐私忧虑,技术团队设置了三重机制:用户可随时关闭记忆功能、删除特定记录,或开启 “匿名模式” 以完全禁用数据存储。

特利预言:“一两年后,人工智能会成为最了解你‘自我’的载体。” 这种进化不光体现在日常场景,比如按饮食偏好推荐餐厅,还会改变人机交互的本质。不过技术挑战还不小,跨对话记忆得解决“记忆过载”问题。现在的办法是给长期记忆分级存储:高频信息放快速检索层,低频数据归档到二级存储。特利总结:“记忆功能是‘超级助手’愿景的基石,但得让用户说了算。”

07.图像生成的突破时刻

图像生成技术的成功突破令OpenAI团队感到意外又兴奋。马克·陈坦言:“确实没想到,这要归功于许多研究者的努力。”他特别提到,真正的进步在于模型能一次性生成完全符合要求的图像,不再需要用户从大量图片中筛选最佳结果。尤其关键的是模型的“变量绑定能力”大幅提升,以往模型很难准确组合复杂的图片属性,而采用GPT-4规模的模型很好地解决了这一难题。

尼克·特利回忆起发布时的热烈场景:“发布的那个周末,印度约5%的互联网用户都涌入体验,这种爆发式场面类似于ChatGPT刚推出时的景象。”他还注意到用户群发生了变化,许多此前未接触过ChatGPT的人被图像生成功能吸引,因为它大幅降低了使用门槛。团队更意外的是用户使用场景的转变,原本预计会以娱乐为主,结果涌现出了装修设计模拟、商业演示插图等实用用途。马克·陈笑称:“我自己生成AI公司排名时,毫不犹豫把OpenAI排在第一位。”

关于审核策略的发展,早期限制生成人物图像的原因在于需要平衡模型的能力与社会责任。马克·陈表示:“随着安全技术进步,我们逐步放宽了这些限制,但核心目标始终是实现可控的创作自由。”特利补充道:“早期过于保守的做法反而限制了创意,后来通过优化安全技术,才实现了内容审核与创作自由之间的平衡”。

08.安全策略的文化转变与探索自由

对话中提到,OpenAI的安全策略正在经历一场文化转型。

特利回忆,早期团队对能力开放非常谨慎,“这是对的,新技术首先要保证安全。”但他也指出,转折点在于团队意识到一味限制会压制有价值的用法。比如在讨论是否开放图像识别功能时,他坚持支持开放,“因为用户可能用它讨论妆容、发型,甚至医疗问题,比如‘这是湿疹吗?’这些用途的价值远超潜在风险”。

现在,OpenAI 更倾向于“按风险分级”去管理安全。特利表示:“像生物武器这样的高风险问题要特别严控,但日常使用不能太保守。” 梅恩提出的“直白模式”也得到了采纳,尼克证实:“全球用户都希望 AI 表达更直接,这是我们产品正在优化的方向。”

09.Codex的进化

谈及 Codex 的演进,梅恩回忆道:“早期 GPT-3 生成 React 组件已令人震撼,但真正的飞跃始于专用代码模型的出现”。

马克・陈指出未来的核心趋势是“代理式编程”——用户只需下达高层次指令,模型便可异步完成复杂任务,如分析大型代码库的兼容性问题。特利对此也进一步解释:“同步对话存在体验上限,而 Codex 的异步模式能将模型性能直接转化为实用性。”

在 OpenAI内部,Codex已广泛用于自动化测试、日志分析等场景,甚至被工程师创新地应用于任务管理。“有人将待办事项交给 Codex 自动生成任务框架,这类自发用法是最好的产品验证。” 特利补充道。

马克・陈透露:“重度用户每天通过Codex生成数百个 PR(Pull Request)。这是效率提升最直观的证明。” 尼克则总结:“当工程师愿意改变工作方式,说明这项工具确实带来了 10 倍效率。” 正如马克所说:“我们从不发布连自己都不想用的产品。”

10.AI时代的职场竞争力

在人工智能飞速发展的时代,OpenAI团队揭示了未来人才应具备的核心竞争力。特利坦言:“当学生问我该如何应对这个瞬息万变的世界时,我总是告诉他们要保持好奇心。在我们这个领域,有价值的问题比标准答案更重要。” 他回忆团队招聘标准时强调:“我不在乎应聘者是否有AI博士学位,重要的是他们能否保持谦逊,在未知领域持续探索。”

马克・陈以自身经历佐证了这一观点:“我加入时只是个实习生,但关键在于能动性。在这里没人会给你待办清单,你需要自己发现问题并解决它。”这种自我驱动的工作模式造就了OpenAI惊人的创新速度——尼克笑称:“外界觉得我们每周都在发布新产品,但我总觉得还能更快。” 梅恩的入职故事就是最佳例证:“我当初通过制作GPT-3应用视频引起注意,虽然可能烦到了一些同事。”

此外,适应力成为团队的另一项隐形考核标准。马克·陈指出:“你必须像AI系统一样快速迭代,早上还重要的项目可能下午就需要调整方向。” 尼克补充道:“我们刻意保持组织扁平化,就是要让有想法的人能立即行动,而不是被流程束缚。” 这种对好奇心、能动性和适应性的三重追求,正在重新定义AI时代的职场竞争力。

11.异步工作流与超级助手

在人工智能领域,异步工作流与超级助手的演进正不断重塑人机协作的范式。特利指出了构建真正智能助手的关键突破:“必须突破同步交互的桎梏,就像现实中得力的伙伴,它能自主处理从5分钟到5天的各类任务——当用户愿意为有价值的结果等待时,深度协作的大门便由此打开。” 马克・陈从认知科学角度佐证了这一观点:“模型需要像人类解谜般拥有思考时间,仓促应答往往容易出错,而只有深度推理才能产生真知灼见。”

梅恩回忆起学术界的反复验证过程:“有论文宣称发现了模型的障碍,但往往通过提示词优化就能解决——这揭示出系统脆弱性与时间约束之间的深层矛盾。” 对此,团队提出了三层防御机制:双系统交叉验证外加第三重保险,正如吴恩达教授所发现的,多智能体协作能显著提升解决方案的质量。马克・陈坦言面临的规模化困境:“每个研究想法的量产都像攀登新的高峰,我们刚解决旧的障碍,新的挑战就又接踵而至。”

在落地应用层面,尼克强调场景化适配的重要性:“给人工智能配备合适的工具,就如同赋予外科医生手术刀,联想超级智能体已经证明,深度理解业务逻辑的人工智能能够成为不可替代的工作搭档。” 这种演进方向与EDA行业的趋势不谋而合——人工智能正从简单的辅助角色,升级为能够自主处理海量数据的代理系统。

12.未来的机遇

在人工智能重塑世界的进程中,OpenAI团队描绘了一幅充满希望的未来图景。

特利指出,AI在医疗中的角色是赋能而非取代:偏远地区的母亲可用手机获得二次诊断,夜班医生也能获得实时辅助。前提是提升模型可靠性并公开其局限,因为“当AI超越人类时,发现它的错误会更难”。

马克・陈预测,未来 18 个月将出现AI驱动的科研爆发:GPT 系列已成为物理学家简化公式、数学家验证猜想的全新“科研仪器”。尼克补充,“任何被清晰定义的问题——从报税到癌症研究——都可能被攻克,剩下的限制只有想象力”。

此外,交互范式同样在迭代。梅恩举例,用户愿意让 AI 像研究员一样“思考三天”来解决复杂难题;尼克则认为,聊天界面会留下,但异步工作流会成主流——比如让智能体完成婚戒设计或一场深度旅行规划。未来某天,当我们回顾‘把人工智能当作聊天机器人’的时期,或许会忍不住会心一笑。”

面对技术的边界,马克展现了科学家的清醒:“当物理学家发现人工智能能推进公式简化时,既感到惊喜,也保持着警惕。我们正在创造‘思维加速器’,这要求开发者始终心怀敬畏。”

本文来自“腾讯科技”,作者:无忌 海伦,36氪经授权发布。