Ich bin so abrupt aufgewacht! OpenAI will AI nutzen, um deine Apps zu ersetzen.
Künstliche Intelligenz (KI) ist nicht mehr nur ein Werkzeug, sondern entwickelt sich zunehmend zu einem neuen Betriebssystem.
Bei der diesjährigen OpenAI Dev Day 2025 (OpenAI-Entwicklertag) sagte CEO Sam Altman uneingeschränkt: ChatGPT ist nicht nur für Chat, sondern soll ein allumfassendes KI-Betriebssystem werden, das Apps ausführen, Aufgaben verwalten und externe Dienste verbinden kann.
Nur zwei Jahre nach der ersten Entwicklertag hat sich die Ökosystem von OpenAI grundlegend verändert: Die Anzahl der Entwickler ist von 2 Millionen auf 4 Millionen gestiegen, die wöchentlichen aktiven Nutzer von ChatGPT sind von 100 Millionen auf 800 Millionen gesprungen, und die Anzahl der pro Minute verarbeiteten Token über die API hat sich sogar verzehnfacht und liegt nun bei 6 Milliarden.
Zur gleichen Zeit hat sich die Welt der KI in den letzten zwei Jahren rapide neu gestaltet: Modelle werden ständig verbessert, Agenten werden in großem Maßstab eingesetzt, und Technologien zur Videoerzeugung erobern alle Branchen.
Als die Außenwelt dachte, OpenAI würde sich zurückhalten, hat die Dev Day am 7. Oktober erneut die Branche in Bewegung gesetzt.
Bei der Konferenz hat Altman auf einmal vier wichtige Produkte vorgestellt: GPT-5 Pro, ChatGPT App Store, AgentKit, Sora 2.
Zuerst das aufregendste - Apps SDK, was bedeutet, dass Entwickler in Zukunft direkt in ChatGPT Anwendungen entwickeln können.
Es ist keine halbherzige Lösung wie die alten Plug - ins. Es sind echte Apps, die im ChatGPT - Interface laufen können, mit Benutzeroberfläche, Interaktion, Anmeldung und Zahlungsmöglichkeiten. Der gesamte Prozess kann hier abgeschlossen werden.
Bei der Konferenz sind einige bekannte Anwendungen sofort vorgestellt worden: Canva, Booking, Coursera, Zillow...
Möchten Sie eine Werbeplakat erstellen? Geben Sie in ChatGPT einfach "Mach mir ein Plakat" ein, und es wird direkt @Canva aufrufen und die vollständige Gestaltungsoberfläche öffnen.
Suchen Sie ein Haus mit Garten in New York? Mit einem Satz wird es das Zillow - Modul aufrufen, und Informationen wie Karte, Preis und Wohnungstyp sind auf einen Blick ersichtlich. Das gesamte Erlebnis erfordert keine Umleitung und ist nahtlos, als wären diese Anwendungen Teil von ChatGPT.
Anschließend hat OpenAI etwas noch Cooleres gezeigt - AgentKit.
Dies ist ein Low - Code/No - Code - Werkzeug für diejenigen, die ihre eigenen Agenten erstellen möchten: Mit einfachen Ziehen, Verbinden und Einstellen von Parametern kann man einen AI - Agenten erstellen, der "Aufgaben" ausführen kann.
Bei der Konferenz hat das OpenAI - Erlebnissteam in nur 8 Minuten einen Agenten erstellt, der als Frage - und - Antwort - Dienst für die DevDay - Website dient.
Aber denken Sie nicht, dass dies nur eine Konzeptpräsentation ist. AgentKit besteht aus drei Kernmodulen:
- Agent Builder: Ein visuelles Arbeitsblatt, auf dem Sie Knoten ziehen und Aufgabenabläufe verbinden können;
- Connector Registry: Ein Ort, an dem man dem Agenten "Werkzeuge" hinzufügen kann, wie z. B. Datenbanken anschließen, APIs aufrufen und externe Ressourcen zugreifen;
- ChatKit: Eine Chat - Interaktionskomponente, mit der man den Agenten in eine Oberfläche/App einbetten kann.
Es gibt auch ein Evals - Modul (Evaluierungssystem), um zu messen, wie gut ein Agent funktioniert. Diese Kombination aus "Visualisierung + Modularität + Sicherheitsvorkehrungen" soll von OpenAI ermöglichen, dass "das Erstellen eines Agenten" nicht mehr nur für Programmierer möglich ist, sondern für jedermann.
Als Nächstes tritt Codex in Erscheinung. Bei dieser Konferenz hat OpenAI angekündigt, dass es nun offiziell in die GA - Phase (Allgemein verfügbar) eintritt. Interne Informationen sind noch interessanter: Fast der gesamte Code des Teams hängt von ihm ab. Etwa 70 % der wöchentlichen Code - Commits werden mit Hilfe von Codex erledigt.
Bei der Live - Demonstration sagte ein Ingenieur nur "Mach mir eine Oberfläche zur Steuerung der Bühnenbeleuchtung und der Kamera", und Codex hat sofort die Frontend - UI erstellt, den Backend - Dienst programmiert, die Protokolldokumentation auf GitHub gesucht und sogar die Steuerung per Controller und Sprachbefehle integriert.
Während des gesamten Prozesses hat der Ingenieur keine einzige Codezeile geschrieben.
Das Ziel von Codex ist klar: Natürliche Sprache + KI - Erkennung = "Semantisches Programmieren". Es versteht und macht, was Sie sagen. Die "Code - Schreibarbeit" von Programmierern könnte allmählich durch einen Prozess ersetzt werden, der aus "Befehl - Umwandlung - Überprüfung" besteht.
Die Basis dafür sind die wichtigen Modelle: GPT - 5 Pro API, gpt - realtime - mini Sprachmodell, Sora 2 Videomodell.
- GPT - 5 Pro tritt mit einem Kontextfenster von 400.000 Token und starker logischer Fähigkeit auf.
- gpt - realtime - mini senkt die Kosten des Sprachmodells und macht die Sprachinteraktion zugänglicher.
- Sora 2 macht die Videoerzeugung steuerbar und synchronisiert Ton und Bild, wodurch Videos von "Kapitalintensiv" zu "steuerbarer Ausgabe auf Befehl" werden.
Wenn man diese Technologien miteinander verbindet, will OpenAI ein geschlossenes Ökosystem von "Eingang - Plattform - Anwendung - Agent" schaffen.
ChatGPT wandelt sich von "Ich beantworte Ihre Fragen" zu "Sie sagen, was Sie möchten, und ich lasse die Backend - Dienste es für Sie erledigen". Dies ist nicht nur ein Upgrade, sondern eher eine Herausforderung an das bestehende Internet - Ökosystem.
Nachdem Sie das gelesen haben, fragen Sie sich vielleicht: Kann diese große Vision wirklich umgesetzt werden? Ich möchte einige interessante Beobachtungen mit Ihnen teilen.
Zunächst muss dieses "einheitliche Eingangsmodel" das Vertrauen der Anwendungsentwickler gewinnen.
Canva, Coursera, Spotify... Wollen diese führenden Anwendungen sich in das ChatGPT - Ökosystem integrieren? Ihre eigenen App Stores, Traffic - Kanäle und Nutzerdaten sind Kernassets.
Wenn man sich zu einem Untermodul in ChatGPT macht, bedeutet dies, dass man einen Teil der unabhängigen Kontrolle aufgibt. Das Interessenkonfliktmanagement bei dieser "Neuordnung des Eingangs" im Mittel - und Langzeit ist das eigentliche Problem.
Zweitens kann ein Zwischenwerkzeug wie AgentKit leicht an der Rando liegen gelassen werden.
Wenn Sie weder über starke Geschäftsszenarien wie Microsoft und Google verfügen noch ein reines Basis - Modell entwickeln möchten und stattdessen in dieser Zwischenschicht genaue Informationsintegration oder vertikale Lösungen anbieten, können Sie sich durchsetzen?
Im Markt gibt es zu viele etablierte Werkzeuge und spezialisierte Anbieter. AgentKit muss sich klar positionieren, sonst besteht die Gefahr, "eingeklemmt" zu werden.
Drittens kann es zu Konflikten kommen, wenn OpenAI selbst Werkzeuge und Ökosysteme entwickelt, da es damit möglicherweise mit seinen Kunden, die Modelle nutzen, in Konflikt gerät, was man als "Schiedsrichter und Spieler zugleich" bezeichnen könnte. Da die Kunden auch potenzielle Konkurrenten sind, erfordert diese Position ein hohes Maß an Transparenz und institutionellen Garantien.
Außerdem können Regulierung und Datenschutz nicht ignoriert werden. Apps SDK ist derzeit in der EU nicht auf der Vorschau - Liste. Unterschiedliche Regulierungen, Datenschutzrichtlinien und Beschränkungen bei der Datenweitergabe in verschiedenen Ländern/Regionen können die Expansion des Ökosystems einschränken.
Außerdem bedeutet eine tiefgehende Integration von Anwendungen mehr sensible Berechtigungen und Dateninteraktion. Wenn die Sicherheitsgrenzen und die Datenisolation nicht richtig eingerichtet sind, kann es zu Problemen kommen.
Schließlich ist der Wettlauf um die besten Modelle noch nicht vorbei. Tech - Giganten wie Google, Meta und Anthropic setzen stark auf Modelle und Generationssysteme. Auch die Open - Source - Modelle und die kostengünstigen Modelle entwickeln sich in bestimmten Anwendungsbereichen schnell weiter.