Die nächste Richtung der Evolution globaler Large Language Models: OpenAI hat GPT - 5 entwickelt.
(OpenAI-CEO Sam Altman stellt GPT-5 vor. Bildquelle: Live-Übertragung auf der offiziellen OpenAI-Website)
Jede Generation des Flaggschiffmodells des amerikanischen Prominenten AI-Startups (Künstliche Intelligenz) OpenAI führt die globale technologische Entwicklung in den nächsten sechs Monaten an. Am 7. August (Westküstenzeit der USA) hat das Unternehmen GPT-5 vorgestellt.
OpenAI-CEO (Chefexecutiv) Sam Altman beschreibt, dass GPT-3 wie ein Gespräch mit einem Highschool-Schüler anmutet. Obwohl es ab und zu geniale Momente gibt, gibt es auch viele ärgerliche Aspekte. GPT-4o ist vielleicht wie ein Gespräch mit einem Studenten. Es verfügt über echte Intelligenz und Nützlichkeit. Und jetzt, mit GPT-5, ist es wie ein Gespräch mit einem Experten – einem professionellen Doktor, der in jedem Bereich jederzeit zur Verfügung steht und Ihnen bei jedem Ziel helfen kann. GPT-5 kann nicht nur chatten, sondern auch Dinge für Sie erledigen.
GPT-5 ist ein System, das aus zwei Modellen besteht (Langzeitdenkversion + Hochleistungsversion. Die erste kann tiefgründig denken, die zweite kann effizient Fragen beantworten). Es entscheidet automatisch, welche Version verwendet wird, wenn der Benutzer eine Frage stellt.
Die auf der offiziellen OpenAI-Website veröffentlichten Ergebnisse der Leistungsbenchmarks zeigen, dass GPT-5 das vorherige Flaggschiffmodell OpenAI o3 übertrifft. Die Anzahl der Halluzinationen von GPT-5 (Langzeitdenkversion) ist um das Sechsfache geringer als bei o3. Das internationale Marktforschungsunternehmen Artificial Analysis führt seit langem Leistungsbenchmarks für die globalen Hauptmodelle durch. Die bis zum 8. August erhobenen Testergebnisse zeigen, dass GPT-5 derzeit das leistungsstärkste Modell weltweit ist.
Zugleich mit der Leistungssteigerung hat sich die Kosten für die Inferenzrechenleistung von GPT-5 erheblich verringert. Die auf der offiziellen OpenAI-Website veröffentlichten Testergebnisse zeigen, dass GPT-5 in Bezug auf die Kosten besser abschneidet als OpenAI o3. Die Anzahl der ausgegebenen Token (Maßeinheit für die AI-Inferenzrechenleistung. Ein Token kann ein Wort, ein Satzzeichen, eine Zahl, ein Symbol usw. sein) ist um 50 % bis 80 % reduziert.
Die "brüchige Überlegenheit" muss gestärkt werden
OpenAI ist seit langem der Anführer im Bereich der großen Modelle. Es ist das am höchsten bewertete und am besten verdienende AI-Startup weltweit. Bis August dieses Jahres hat OpenAI erneut 8,3 Milliarden US-Dollar an Kapital beschafft, insgesamt über 79,7 Milliarden US-Dollar. Der Unternehmenswert beträgt 300 Milliarden US-Dollar.
Bis August dieses Jahres hat ChatGPT 180 Millionen tägliche aktive Benutzer und 5 Millionen zahlende Unternehmensbenutzer. Bis April dieses Jahres hatte ChatGPT 20 Millionen zahlende private Benutzer.
Frühere Medienberichte zufolge wird OpenAI bis Ende Juli dieses Jahres einen Jahresdauerumsatz (ARR, Annual Recurring Revenue) von 12 Milliarden US-Dollar erzielen, was einem Anstieg von über 80 % gegenüber dem Vorjahr entspricht. Darunter entfallen 5,5 Milliarden US-Dollar auf den Verbraucherabonnementumsatz (Benutzerabonnementprodukte wie ChatGPT Plus), 3,6 Milliarden US-Dollar auf den Geschäfts- und Partnerschaftsumsatz (ChatGPT Team und Enterprise-Enterprise-Bereitstellungsversion), 2,9 Milliarden US-Dollar auf den API (Softwareaufrufeschnittstelle)-Aufrufumsatz und 400 Millionen US-Dollar auf den Umsatz mit code-spezifischen Produkten.
Als das weltweit größte AI-Startup übertrifft OpenAI in Bezug auf Kapitalbeschaffung, Umsatz und Unternehmenswert seinen größten Konkurrenten – das weltweit zweitgrößte AI-Startup Anthropic bei weitem.
Anthropic hat seit 2023 14 Finanzierungen abgeschlossen, insgesamt 18,2 Milliarden US-Dollar. Derzeit beträgt der Unternehmenswert von Anthropic 61,5 Milliarden US-Dollar. Der Unternehmenswert von OpenAI ist 4,9-mal höher als der von Anthropic. Bis Ende Juli dieses Jahres wird der Jahresdauerumsatz von Anthropic auf etwa 5 Milliarden US-Dollar geschätzt. Das heißt, der Umsatz von OpenAI ist 2,4-mal höher als der von Anthropic.
Obwohl OpenAI über eine Überlegenheit verfügt, wird der Markt Wettbewerb heftiger. Auf dem US-Markt sind Google's Gemini, Anthropic und das AI-Startup xAI direkte Konkurrenten. Der Abstand zwischen den Flaggschiffmodellen dieser Unternehmen und dem von OpenAI beträgt fast nicht mehr als drei Monate. Auf dem chinesischen Markt beträgt der Abstand zwischen den beiden Open-Source-Modellen – der Qwen-Serie von Alibaba und der DeepSeek-Serie des AI-Startups DeepSeek – und dem Flaggschiffmodell von OpenAI nur 3 bis 6 Monate.
Seit 2024 hat sich die Iterationsgeschwindigkeit der OpenAI-Modelle deutlich beschleunigt. Aber im vergangenen Jahr hat OpenAI mehr Kritik als je zuvor erhalten. Die Anzahl der Modelliterationen ist zwar hoch, aber die Leistungssteigerung hat die Erwartungen der Öffentlichkeit nicht erfüllt. Mehrere Gründungsmitglieder von OpenAI haben das Unternehmen verlassen. Das von der Firma verfolgte Closed-Source-Geschäftsmodell hat auch Beanstandungen hervorgerufen. In der Branche wird OpenAI ironisch als "CloseAI" bezeichnet.
Eine Analyse von J.P. Morgan vom 18. Juli besagt, dass die Kapitalbeschaffung von OpenAI hauptsächlich für die Investition in Rechenleistung und Personal verwendet wird. In den nächsten vier Jahren werden möglicherweise noch etwa 46 Milliarden US-Dollar für die Rechenleistungskosten und die Mitarbeitergehälter aufgewendet. Es wird erwartet, dass das Unternehmen erst 2029 gewinnbringend sein wird. J.P. Morgan ist auch der Meinung, dass der Aufstieg von Google's Gemini 2.5 Pro und China's DeepSeek-R1 zeigt, dass der Wettbewerb auf dem Markt für große Modelle heftig ist und die Kosteneffizienz zunehmend wichtiger wird.
Ein Leiter der Geschäftseinheit für große Modelle eines chinesischen Cloud-Anbieters hat im April dieses Jahres gegenüber "Caixin" erklärt, dass einer der Hauptlinien der Entwicklung der großen Modelle im Jahr 2025 die Verbesserung der Genauigkeit und die Reduzierung der Rechenleistungskosten ist, kurz gesagt: mehr, schneller, besser und kostengünstiger.
"Das Wettlaufen um die besten Modelle" garantiert nicht immer die Führung, aber es ist dennoch einer der wenigen Wege, um die Überlegenheit aufrechtzuerhalten. GPT-5 ist genau in diesem Kontext entstanden – es verbessert die Leistung und senkt gleichzeitig die Rechenleistungskosten.
Um auf die Kritik zu reagieren, dass OpenAI besser "CloseAI" heißen sollte, hat das Unternehmen am 5. August zwei Modelle – gpt-oss-120b und gpt-oss-20b – Open-Source gemacht. Die Marktteilnehmer gehen allgemein davon aus, dass das Hauptziel dieser Open-Source-Strategie von OpenAI die Erweiterung des Einflusses seiner Modelle auf dem globalen Markt ist (siehe auch "Um nicht auf der falschen Seite der Geschichte zu stehen", macht OpenAI wieder Open-Source).
Den Sprungbrettvorteil vor dem Ausbruch der AI-Anwendungen sichern
Der Ausbruch von AI-Anwendungen, insbesondere der Ausbruch von Agenten (Intelligente Agenten, eine leichte AI-Anwendung) ist der offensichtlichste Trend bei der Implementierung von großen Modellen im Jahr 2025.
Das internationale IT-Beratungsunternehmen Gartner prognostiziert, dass bis 2028 33 % der Unternehmenssoftware Agenten enthalten werden, im Jahr 2024 war dieser Anteil weniger als 1 %. Bis 2028 werden 15 % der täglichen Arbeitsaufgaben von Agenten autonom erledigt werden, im Jahr 2024 war dieser Anteil nahezu 0 %.
Im ersten Halbjahr 2025 galten Agenten jedoch als noch nicht reif (siehe "Warum verstehen wir AI-Intelligente Agenten nicht?"). Der Grund ist, dass die Fähigkeiten des Basis-Modells noch nicht stark genug sind.
Zwei wichtige technologische Durchbrüche von GPT-5 befassen sich mit diesem Problem – einerseits die Fähigkeit des Modells für Multimodalität (komplexe Formate wie Text, Bild, Video, Audio usw.), andererseits die Befolgung von Anweisungen und die Fähigkeit zur Verwendung von Agent-Tools.
OpenAI-Mitbegründer Greg Brockman hat auf der GPT-5-Pressekonferenz unter Bezugnahme auf einen Codeszenario erklärt, dass GPT-5 einen neuen Standard setzt. Es ist das beste Modell für Aufgaben im Bereich der Intelligenten Agenten-Codes. Sie können es dazu bringen, sehr komplexe Dinge zu erledigen. Es beginnt mit der Arbeit, ruft viele Tools auf und arbeitet mehrere Minuten, manchmal sogar länger, um Ihr Ziel, Ihre Anweisung zu erfüllen, egal was Sie erstellen möchten.
Das bedeutet, dass mit der Reife der Multimodalitätsverstehensfähigkeit und der Fähigkeit zur Verwendung von Agent-Tools von GPT-5 die großen Modelle in der Lage sein werden, mehrere Agenten zu koordinieren. Es wird die Fähigkeit haben, Muti-Agenten (Mehrfach-Intelligente Agenten) zu steuern und komplexe Aufgaben zu bewältigen.
GPT-5 eröffnet einen neuen Wettbewerbspunkt für die Basis-Großen Modelle. Der Sprung in der Basis-Fähigkeit bedeutet, dass mehr komplexe AI-Anwendungen freigeschaltet werden. Mit jedem neuen Satz von AI-Anwendungen wird der Verbrauch an AI-Rechenleistung exponentiell steigen. Das "Fliegenschloss" von Modell, Anwendung und Rechenleistung wird sich beschleunigt drehen.
Wu Di, Leiter der Geschäftseinheit für Künstliche Intelligenz-Algorithmen und Leiter von Huoshan Ark der ByteDance, hat im Juni dieses Jahres gegenüber "Caixin" diese Logik erklärt. Nach seiner Ansicht wird die Fähigkeit der Basis-Modelle in den nächsten 12 Monaten sowohl auf dem chinesischen als auch auf dem amerikanischen Markt kontinuierlich verbessert werden. Es gibt drei Verbesserungsrichtungen.
Erstens wird das Multimodal-Inferenzmodell (Text, Bild, Audio, Video usw.) zur Hauptrolle werden. Dies ist eine Veränderung, die derzeit stattfindet. Künstliche Intelligenz wird in der Lage sein, verschiedene Informationen wie Text, Bild, Audio und Video zu integrieren und eine umfassende Inferenz durchzuführen. Dies wird die Fähigkeit der Agenten, komplexe Informationen aus der realen Welt zu verstehen, erheblich verbessern.
Zweitens wird das Videogenerierungsmodell reif und einsatzfähig werden. Es wird erwartet, dass es Ende dieses Jahres zu einem Ausbruch kommen wird. Dies bedeutet, dass die Agenten nicht nur die Welt verstehen können, sondern auch Inhalte und Prozesse auf eine dynamischere und anschaulichere Weise generieren können.
Drittens wird die Fähigkeit zur Bewältigung von komplexen Mehrschrittaufgaben erheblich verbessert werden. Es wird erwartet, dass es Ende dieses Jahres zu einem wichtigen Durchbruch kommen wird. Dies ist ein Schlüssel-Schritt für die Reife der Agenten. Wenn das Modell in der Lage ist, stabile und zuverlässige Pläne zu erstellen und komplexe Aufgaben mit mehreren Dutzend oder sogar Hunderten von Schritten auszuführen, wird das Problem der "unerledigten" Agenten grundlegend gelöst werden.
Nach Wu Di's Ansicht sind derzeit die meisten Muti-Agent-Anwendungen "wie Spielzeuge". Aber aufgrund der Durchbrüche in diesen drei technologischen Hauptlinien gibt er die endgültige Einschätzung ab – die Genauigkeit der Muti-Agent-Anwendungen wird Ende 2025 erheblich verbessert werden. Nach der Verbreitung von AI-Anwendungen mit visueller Verstehens- und Schlussfolgerungsfähigkeit Ende 2025 könnte der Verbrauch an Rechenleistung für eine Basisaufgabe mehr als 100.000 Token betragen. Zu diesem Zeitpunkt wird der Token-Verbrauch exponentiell steigen.
Ein neuer Wettlauf um die besten Modelle beginnt
Die Grundlage für die Drehung des "Fliegenschlosses" von Modell, Anwendung und Rechenleistung ist die kontinuierliche Verbesserung der Modellfähigkeiten. Im Jahr 2025 hat der Wettlauf um die besten Modelle zwischen den globalen Technologieunternehmen heftiger zugenommen. Die Iterationsgeschwindigkeit der großen Modelle hat sich beschleunigt.
Das Wissen im Bereich der großen Modelle entwickelt sich in Intervallen von "Monaten" oder sogar "Wochen". Eine einzelne Studie, ein einzelnes Modell können die bestehende technologische Route umstürzen. Ein erfahrener Algorithmus-Ingenieur hat gegenüber "Caixin" erklärt, dass im Bereich der großen Modelle jede Woche eine große Anzahl von wissenschaftlichen Studien veröffentlicht wird; fast jeden Monat gibt es einen neuen technologischen Durchbruch; fast alle drei oder vier Monate wird das führende Modell überholt.
Laut unvollständigen Statistiken von "Caixin" haben 11 Technologieunternehmen aus China und den USA (einschließlich Alibaba, ByteDance, Tencent, Baidu, Huawei, DeepSeek, Dark Side of the Moon, Google, OpenAI, Anthropic, xAI), die am Modellwettbewerb teilnehmen, in den 220 Tagen vom 1. Januar bis 8. August 2025 mindestens 32 Versionen von großen Modellen veröffentlicht oder aktualisiert. Im Durchschnitt wird alle 6,9 Tage eine neue Version eines großen Modells veröffentlicht.
Der Aktualisierungszyklus der Basis-Modelle wird sogar kürzer. Der Aktualisierungszyklus von OpenAI's GPT-4.5 auf GPT-5 beträgt 161 Tage; der Aktualisierungszyklus von OpenAI's o1 auf o3 beträgt 132 Tage; der Aktualisierungszyklus von xAI's Grok 3 auf Grok 4 beträgt 142 Tage; der Aktualisierungszyklus zwischen zwei Versionen von DeepSeek-R1 beträgt 128 Tage; der Aktualisierungszyklus zwischen zwei Versionen von DeepSeek-V3 beträgt 87 Tage; der Aktualisierungszyklus zwischen zwei Versionen von Google's Gemini 2.5 beträgt nur 42 Tage