首页文章详情

Der Leiter von Codex widerspricht dem CEO von Cursor und dessen Theorie der "Regelgesteuerten Entwicklung". Innerhalb von 18 Tagen wurde das Sensationsprojekt Sora geschaffen, indem Agenten rund um die Uhr arbeiteten. Es werden die Geheimnisse von OpenAIs raschem Aufstieg enthüllt.

AI前线2025-12-17 10:41
Die Nutzerzahl von Codex hat sich um das 20-Fache erhöht, und die Engpässe bei Langzeitaufgaben wurden überwunden.

Seit der Veröffentlichung von GPT-5 im August hat Codex eine erstaunliche Sprungkraft gezeigt. Die Anzahl der Benutzer hat sich um das 20-fache erhöht, und es verarbeitet jede Woche Billionen von Tokens. Dadurch ist es zum beliebtesten Programmier-Intelligenten Agenten von OpenAI geworden.

„Die 20-fache Wachstumsrate von Codex ist nicht nur auf die Verbesserung des Modells zurückzuführen, sondern auch darauf, dass wir verstanden haben, dass ein echter Intelligenter Agent nicht nur ein Modell ist, sondern das Ergebnis der gemeinsamen Arbeit von Modell, API und Framework.“ In einem neuesten Podcast hat Alexander Embiricos, der Produktverantwortliche für den Programmier-Intelligenten Agenten Codex von OpenAI, das Geheimnis hinter diesem Erfolg enthüllt.

Zum Beispiel hat Codex einen Durchbruch bei der Fähigkeit für Langzeitaufgaben erzielt. Um es in die Lage zu versetzen, mehrere Stunden oder sogar Tage lang kontinuierlich zu arbeiten, hat das Team einen Mechanismus namens „Komprimierung“ entwickelt – das Modell extrahiert die Schlüsselinformationen, die API übernimmt die Aufgabe der Aufgabe-Kette, und das Framework sorgt für einen stabilen Betrieb. Diese drei Ebenen greifen wie Zahnräder ineinander, sodass Codex Langzeit-Programmieraufgaben bewältigen kann, die traditionelle große Modelle schwer zu bewältigen sind.

Genau diese unterliegende Logik lässt Codex in der praktischen Geschäftstätigkeit hervorragend abschneiden.

Andrej Karpathy hat einmal öffentlich erwähnt, dass er mehrere Stunden lang an einem Bug festgeklemmt war und ihn schließlich Codex übergeben hat. Innerhalb einer Stunde war der Bug behoben.

Das Sora-Team hat dank Codex in nur 28 Tagen eine Android-Anwendung von Null auf eins entwickelt und diese direkt an die Spitze der App Store-Charts katapultiert.

Bei Rückschau auf die Vergangenheit hat Alexander Embiricos auch zugegeben, dass der Weg von Codex am Anfang nicht klar war.

Der frühe Codex war „zu futuristisch“ und arbeitete asynchron über die Cloud. Dies entspricht zwar der Gewohnheit von erfahrenen Ingenieuren, ist jedoch für die meisten Ingenieure nicht sehr praktikabel. Der echte Wendepunkt kam mit einer entscheidenden Anpassung: Das Team hat Codex von der Cloud auf die lokale Maschine verlagert, sodass es direkt in der IDE der Ingenieure arbeitet, was es viel praktischer macht.

Nach Ansicht von Alexander Embiricos ist der aktuelle Codex wie ein „kluger, aber nicht initiativer Praktikant, der sehr schnell Code schreiben kann.“ Codex überwacht sich ständig, trainiert sich selbst und entwickelt sich kontinuierlich. Alexander Embiricos hofft, dass Codex in Zukunft tatsächlich an allen Phasen der Softwareentwicklung teilnehmen kann und ein guter Teamkollege für Ingenieure werden kann.

Alexander Embiricos hat auch über die Organisationskultur von OpenAI gesprochen. Er ist beeindruckt von der Geschwindigkeit und dem Ehrgeiz von OpenAI. Die Iterationsgeschwindigkeit ist beispiellos. Im Vergleich zu anderen Organisationen, die „zuerst zielen und dann schießen“, sieht er das Besondere an OpenAI darin, dass es „zuerst schießt und dann zielt“, d. h. es veröffentlicht zuerst und optimiert dann den Weg anhand der echten Nutzungsrückmeldungen. Die Sammlung der besten Talente aus der Welt und die von unten nach oben gerichtete Kultur machen diese schnelle Iteration zur Tagesordnung.

Was die Frage nach dem Zeitpunkt des Eintreffens der künstlichen allgemeinen Intelligenz (AGI) angeht, hat Alexander Embiricos auch einen interessanten Blickwinkel. Er meint, dass der aktuelle echte Faktor, der die AGI hemmt, nicht die Modellfähigkeit ist, sondern der Mensch – unsere begrenzte Eingabegeschwindigkeit und Prüfgeschwindigkeit bremsen die Entwicklung. .

Er hat eine Prognose gemacht: Die ersten Benutzer, deren Produktivitätskurve einen steilen Anstieg zeigt, werden im nächsten Jahr auftauchen, und die Veränderungen werden danach beschleunigt verbreitet werden. „Wenn die Wachstumskurve plötzlich sehr steil wird“, sagt er, „stehen wir vielleicht schon vor der Tür zur AGI.“

Im Podcast werden auch weitere Details hinter Codex und die interessanten Ansichten von Alex geteilt. Wir haben diesen Inhalt übersetzt und unter Beibehaltung der ursprünglichen Bedeutung gekürzt und zusammengefasst, um den Lesern einen besseren Zugang zu bieten.

Zusammenfassung der interessanten Ansichten aus dem Podcast:

  1. Mit der Hilfe von Codex hat OpenAI in nur wenigen Wochen mit der Zusammenarbeit von zwei oder drei Ingenieuren die Sora-Android-Anwendung entwickelt und sie an die Spitze der App Store-Charts gebracht. Die Sora-Anwendung war von Null bis zur Mitarbeiter-Testphase in nur 18 Tagen fertiggestellt und 10 Tage später offiziell veröffentlicht. Codex hat dabei enorm geholfen, indem es die bestehenden iOS-Anwendungen analysierte, einen Arbeitsplan erstellte und gleichzeitig die beiden Plattformen verglich, um die Funktionen zu realisieren.
  2. Selbst wenn die Verbesserung der künstlichen Intelligenzmodelle morgen aufhörte, bräuchten wir noch Jahre für die Produktentwicklung, um ihr volles Potenzial auszuschöpfen. Die Entwicklung dieser Technologie ist schneller als unsere Fähigkeit, sie optimal zu nutzen.
  3. Der Schlüssel zur optimalen Nutzung von Codex besteht darin, die schwierigsten Probleme auszuwählen, nicht die einfachsten. Diese Tools sind dazu gedacht, schwierige Bugs und komplexe Aufgaben zu lösen, nicht einfache Aufgaben. Beginne mit den Problemen, die dich normalerweise mehrere Stunden in Anspruch nehmen würden.
  4. Das ursprüngliche Codex-Produkt von OpenAI war „zu futuristisch“. Es arbeitete asynchron in der Cloud, was für fortgeschrittene Benutzer gut war, aber für Anfänger schwierig. Als es Codex zurück in die Arbeitsumgebung der Ingenieure – ihren eigenen Code-Editor auf ihrem Computer – brachte, hat das Wachstum sprunghaft zugenommen. In den letzten 6 Monaten hat die Nutzung von Codex sich um das 20-fache erhöht.
  5. Das Schreiben von Code könnte die universelle Methode werden, mit der die künstliche Intelligenz jede Aufgabe erledigt. Anstatt auf eine Benutzeroberfläche zu klicken oder separate Integrationen aufzubauen, sollte die künstliche Intelligenz kleine Programme sofort schreiben, um die beste Leistung zu erzielen. Das bedeutet, dass jeder künstliche Intelligenz-Assistent über eine integrierte Codierungsfähigkeit verfügen sollte, nicht nur spezialisierte Programmiertools.
  6. Die Designer von OpenAI schreiben jetzt selbst Code und veröffentlichen ihn. Das Design-Team unterhält ein voll funktionsfähiges Prototyp, das mit der Hilfe der künstlichen Intelligenz erstellt wurde. Wenn sie eine Idee haben, schreiben sie direkt Code, testen ihn und stellen ihn oft selbst in die Produktionsumgebung ein. Erst wenn die Codebasis besonders komplex ist, greifen die Ingenieure ein.
  7. Der größte Engpass bei der Produktivität der künstlichen Intelligenz liegt nicht in der künstlichen Intelligenz selbst, sondern in der Tippgeschwindigkeit des Menschen. Der begrenzende Faktor ist die Geschwindigkeit, mit der du die Eingabeaufforderung gibst, und die Geschwindigkeit, mit der du die von der künstlichen Intelligenz generierte Arbeit prüfst. Bevor die künstliche Intelligenz ihre Ausgabe zuverlässiger verifizieren und proaktiv helfen kann, werden wir nicht die volle Produktivitätssteigerung durch diese Tools sehen.
  8. Das Vergnügen am Schreiben von Code wird zunehmend durch die Prüfung des von der künstlichen Intelligenz generierten Codes ersetzt. Ingenieure haben einst den kreativen Prozess des Codebaus geliebt, und jetzt verbringen sie mehr Zeit damit, den von der künstlichen Intelligenz generierten Code zu lesen. Die nächste Herausforderung besteht darin, den Code-Prüfungsprozess schneller und zufriedenstellender zu gestalten.
  9. Neue künstliche Intelligenzmodelle können jetzt 24 bis über 60 Stunden lang kontinuierlich an einer einzelnen Aufgabe arbeiten. Eine Technologie namens „Komprimierung“ ermöglicht es der künstlichen Intelligenz, ihre gelernten Inhalte zu resümieren, bevor der Arbeitsspeicher erschöpft ist, und dann in einer neuen Sitzung fortzusetzen. Dies ermöglicht es der künstlichen Intelligenz, Automatikarbeit über Nacht oder mehrere Tage hinweg zu leisten, was bisher nicht möglich war.
  10. Wenn du jetzt ein Unternehmen gründen möchtest, ist es wichtiger, die spezifischen Kunden gut zu verstehen als gut im Produktentwicklung zu sein. Die Produktentwicklung wird immer einfacher. Heute liegt der echte Vorteil darin, zu wissen, welches Produkt entwickelt werden soll und für wen.

Die Geschwindigkeit, Kultur und Personalpolitik von OpenAI

Lenny: Ich möchte zunächst über deine Erfahrungen bei OpenAI sprechen. Du bist vor etwa einem Jahr bei OpenAI eingestiegen. Vorher hast du etwa fünf Jahre lang dein eigenes Unternehmen gegründet, und noch davor hast du als Produktmanager bei Dropbox gearbeitet. OpenAI ist eindeutig ein Ort, der sich von allen Unternehmen unterscheidet, bei denen du bisher gearbeitet hast. Ich möchte fragen, was die besonderssten Betriebsweisen bei OpenAI sind? Was hast du dort gelernt, das du glaubst, dass du es mitnehmen wirst, wo auch immer du in Zukunft hin gehen möchtest (angenommen, du verlässt es eines Tages)?

Alex: Bislang finde ich, dass das Tempo und der Ehrgeiz bei der Arbeit bei OpenAI weit über meine Vorstellungskraft hinausgehen. Wenn ich das sage, denke ich daran, dass in der Startup-Szene jeder glaubt, dass sein Unternehmen schnell sei, hohe Anforderungen an die Mitarbeiter stelle und große Ziele verfolge. Aber als ich bei OpenAI kam, habe ich gemerkt, dass diese Begriffe hier eine völlig andere Bedeutung haben. Bei OpenAI habe ich das wahre Verständnis von „Geschwindigkeit“ und „Ehrgeiz“ neu entdeckt.

Wir hören oft von außen, dass die künstlichen Intelligenz-Unternehmen eine schnelle Entwicklung haben. Das erste Beispiel, das mir dazu einfällt, ist das sprunghafte Wachstum der Modelle selbst. Obwohl wir die Menge der externen Daten erweitert haben, hat ein zehnfaches Wachstum eines Modells wie Codex nur in wenigen Monaten stattgefunden, und die Fortschritte haben sich danach weiter beschleunigt. Zumindest für mich bedeutet es, dass ich bei der Entwicklung von Technologieprodukten automatisch die Ziele auf diese Geschwindigkeit und Größe festlege, sonst fühle ich mich unzufrieden. Im Vergleich dazu war das Tempo, das ich in Startups erlebt habe, viel langsamer.

Beim Gründen eines Unternehmens muss man oft zwischen Investition und der Möglichkeit eines Misserfolgs abwägen: Probiere zuerst aus, dann passe an. Aber bei OpenAI habe ich stark gemerkt, wie groß der Einfluss ist, und dass es viel Energie erfordert, die Arbeit gut zu machen. Diese Notwendigkeit zwingt mich, meine Zeit entschlossener zu planen.

Lenny: Bevor wir fortfahren, möchte ich noch eine Sache nachfragen: Gibt es für Teams wie Codex, die so schnell vorankommen können, eine besondere Organisationsstruktur oder strukturelle Gründe? Oder ist es einfach, dass ich die Betriebsweise von Open Source-Software nicht gut genug verstehe, weshalb das Team so schnell vorankommen kann? Es muss sicherlich eine Struktur geben, die all dies ermöglicht.

Alex: Einerseits hat die Technologie, die wir verwenden, viele Dinge grundlegend verändert, einschließlich der Art und Weise, wie wir Produkte entwickeln, und der Funktionen, die wir für die Benutzer realisieren können. Obwohl wir oft über die Verbesserung der Basis-Modelle sprechen, wären wir auch dann noch weit hinterher bei der Produktentwicklung, wenn wir die Verbesserungen auf Modell-Ebene stoppen würden (was tatsächlich nicht der Fall ist), und es gibt noch viele Produkte, die nicht realisiert wurden. Man kann sagen, dass das Niveau der Reife in diesem Bereich weit höher ist, als die Außenwelt annimmt.

Es gibt aber auch viele Überraschungen. Als ich bei OpenAI ankam, wusste ich nicht viel über die Organisationsstruktur. Beispielsweise war es in Startups oder als Produktmanager bei Dropbox äußerst wichtig, das Team zu motivieren und sicherzustellen, dass es in die richtige Richtung geht. Aber bei OpenAI wissen wir nicht genau, welche Funktionen in naher Zukunft auftauchen werden und welche am Ende funktionieren werden. Selbst wenn es technisch möglich ist, können wir das Endergebnis nicht sicher vorhersagen. Daher müssen wir bescheiden bleiben und durch ständiges Ausprobieren lernen.

Die Organisationsstruktur hier ist so gestaltet, dass sie von unten nach oben funktioniert, und jeder möchte schnell vorankommen. Viele Unternehmen behaupten, dass sie von unten nach oben organisiert sind, aber OpenAI ist es tatsächlich. Dies ist für mich eine kostbare Lernerfahrung und lässt mich merken, dass es in Zukunft wahrscheinlich schwierig sein wird, in einem Unternehmen zu arbeiten, das keine künstliche Intelligenz betreibt. Ich bin sogar nicht sicher, was das bedeuten würde. Wenn ich in die Vergangenheit zurückkehren würde, würde ich ganz anders vorgehen.

Lenny: Wenn ich deine Beschreibung höre, klingt es eher wie „Bereit, schießen, zielen“ als wie „Bereit, zielen, schießen“. Viele künstliche Intelligenz-Unternehmen scheinen der Meinung zu sein, dass es keinen Sinn macht, viel Zeit darauf zu verwenden, ein Produkt perfekt zu machen, da man nicht weiß, wie die Benutzer es letztendlich nutzen werden. Die beste Methode ist es, es so schnell wie möglich zu veröffentlichen, zu beobachten, wie die Menschen es nutzen, und dann schnell zu iterieren.

Alex: Diese Metapher hat eine gewisse Richtigkeit, aber die Zielsetzung selbst ist unklar. Wir können grob vorhersagen, was in Zukunft passieren könnte, aber es gibt immer noch viele Unsicherheiten. Ein Forschungsleiter sagt oft, dass wir bei OpenAI über das zukünftige Jahr hinweg qualitativ hochwertige Gespräche führen können, aber je näher wir dem Zeitpunkt kommen, desto schwieriger wird es, eine vernünftige Planung zu treffen. Wir stellen uns vor, was wir in ferner Zukunft erreichen möchten, insbesondere in Themen wie der Ausrichtung der künstlichen Intelligenz. Wir müssen sehr langfristige Ziele berücksichtigen. Aber wenn wir tatsächlich in die Produktentwicklung kommen, beginnen wir, uns auf taktische Details zu konzentrieren, wie z. B. welche Produkte konkret entwickelt werden sollen und wie die Menschen sie tatsächlich nutzen werden. Bei den Produkten verlassen wir uns stärker auf empirische Studien, um sie zu validieren.

Lenny: Wenn die Leute von deinem Vorgehen hören, denken sie, dass ein Unternehmen wie deins viele Dinge wagen kann und in den nächsten Monaten keine strengen Pläne machen muss. Aber das Wichtigste ist, dass ihr die besten Talente aus der Welt eingestellt habt, was anscheinend der Schlüssel zum Erfolg eines solchen Unternehmens ist.

Alex: Das stimmt mir sehr zu. Als ich angefangen habe, war ich von der individuellen Motivation und Autonomie jedes einzelnen beeindruckt. Ich denke, dass die Betriebsweise von OpenAI nicht einfach durch das Lesen eines Artikels oder das Hören eines Podcasts auf andere Unternehmen übertragen werden kann. Dies mag direkt klingen, aber nur wenige Unternehmen haben Mitarbeiter, die in dieser Art und Weise arbeiten können. Wenn man dieses Modell anderswo umsetzen möchte, muss man wahrscheinlich viele Anpassungen vornehmen.

Die Positionierung, Kernphilosophie und Produktvision von Codex

Lenny: Lass uns über Codex sprechen. Du bist der Verantwortliche für Codex. Wie läuft es mit Codex derzeit? Kannst du einige Daten teilen? Außerdem ist nicht jeder genau darüber informiert, was Codex ist. Kannst du es erklären?

Alex: Codex ist ein Open-Source-Programmier-Intelligenz-Agent. Genauer gesagt, es ist eine IDE-Erweiterung für VS Code, die du installieren kannst, oder ein Terminal-Tool. Nach der Installation kannst du mit Codex interagieren, Fragen zum Code beantworten, Code schreiben, Tests ausführen, Code ausführen usw., also den aufwändigsten Teil des Software-Entwicklungszyklus – das eigentliche Schreiben des Codes, der in die Produktionsumgebung deployed wird.