Das von OpenAI zu entwickelnde Smartphone geht einen Schritt weiter als Doubao.
Wird OpenAI ein Smartphone entwickeln?
Nach Informationen von Guo Mingji hat OpenAI mit MediaTek und Qualcomm zusammengearbeitet, um einen Smartphone-Prozessor zu entwickeln. Luxshare wird als exklusiver System-Ko-Designer und Hersteller fungieren. Die Massenproduktion wird voraussichtlich 2028 erfolgen.
Dies bedeutet, dass OpenAI sich der Smartphone-Industriekette nähert, der heute am reifsten, persönlichsten und am schwersten zu umgehenden persönlichen Endgerät.
In den letzten 12 Monaten wurden die Schritte von OpenAI in die Hardwarebranche immer deutlicher: Es hat das Hardwareteam von Jony Ive übernommen, Berichte über Kontaktaufnahme mit der Konsumelektronik-Lieferkette sind aufgetaucht, und es hat ChatGPT ständig von der Chatbox in komplexere Agent-Aufgaben gebracht.
Es gab viele Vorstellungen von der OpenAI-Hardware: Geräte ohne Bildschirm, intelligente Lautsprecher, Kopfhörer, Brillen, Tischlampen, intelligente Stifte... Bisher hat OpenAI jedoch kein käufliches AI-Hardwareprodukt auf den Markt gebracht.
Wenn der AI-Agent wirklich in den Alltag der Menschen eintreten will, ist es schwierig, dies nur mit einem neuartigen Klein-Gerät zu erreichen. OpenAI hat endlich erkannt, dass es sinnvoller ist, die Ressourcen auf das Smartphone zu konzentrieren, von dem die Benutzer nicht mehr wegkommen können, anstatt in verschiedene AI-Hardwareformen zu experimentieren.
Das Doubao-Smartphone hat gezeigt: AI kann nicht nur Fragen beantworten, sondern auch das Smartphone bedienen.
01 Die OpenAI-Hardware zielt endlich auf das Smartphone
Altman hat einmal gesagt: "Ich denke nicht, dass man versuchen sollte, ein besseres Smartphone zu bauen." Er meinte, dass das Smartphone bereits reif sei und die Hardware in der AI-Ära eine neue Form annehmen sollte.
Anscheinend war er zu früh damit.
2025 hat OpenAI das von Jony Ive gegründete Hardwareunternehmen io Products übernommen.
Jony Ive ist einer der wichtigsten Produkt-Designer von Apple. Produkte wie iMac, iPod, iPhone und Apple Watch sind eng mit seinem Designsystem verbunden.
Als OpenAI ihn und sein Team verpflichtete, war es für die Außenwelt leicht, zu vermuten: Will OpenAI auch ein iPhone für die AI-Ära entwickeln?
Altman hat jedoch gesagt, dass das Gerät, mit dem er mit Jony Ive zusammenarbeitet, "kein Smartphone" sei.
Laut Berichten von The Information hat OpenAI bereits ein Hardwareteam von über 200 Personen, das eine Reihe von AI-Geräten vorantreibt. Das erste Produkt könnte ein intelligenter Lautsprecher mit Kamera sein, der zwischen 200 und 300 US-Dollar kostet und nicht vor Februar 2027 auf den Markt kommt. Die Massenproduktion von intelligenten Brillen wird voraussichtlich erst 2028 erfolgen, und Produkte wie intelligente Tischlampen befinden sich noch in der frühen Prototypenphase.
Bisher hat OpenAI kein käufliches AI-Hardwareprodukt auf den Markt gebracht.
Der Analyst Guo Mingji von Tianfeng International Securities hat in seiner neuesten Branchenstudie angegeben, dass OpenAI mit MediaTek und Qualcomm zusammenarbeitet, um einen Smartphone-Prozessor zu entwickeln. Luxshare wird als exklusiver System-Ko-Designer und Hersteller fungieren, und die Massenproduktion wird voraussichtlich 2028 erfolgen.
Bei der Prozessorentwicklung arbeiten MediaTek und Qualcomm zusammen. Die endgültigen Spezifikationen und Lieferanten werden voraussichtlich Ende 2026 oder im ersten Quartal 2027 festgelegt. Luxshare Precision hat die exklusive Position für die Ko-Gestaltung und Herstellung erhalten.
Er hat auch eine Datenreferenz gegeben: Am Beispiel des von MediaTek und Google entwickelten TPU Zebrafish beträgt der Umsatz eines einzelnen AI-Chips ungefähr das 30- bis 40-fache eines AI-Agent-Smartphone-Prozessors.
OpenAI zielt zunächst auf den globalen Markt für 300 bis 400 Millionen High-End-Smartphones pro Jahr. Wenn es tatsächlich in diesen Markt vordringen kann, könnte der nachfolgende Austauschzyklus für Lieferkettenunternehmen wie MediaTek, Qualcomm und Luxshare eine neue Wachstumsquelle werden.
02 Warum will OpenAI ein Smartphone entwickeln?
Die früheren Vorstellungen von OpenAI für die Hardware ähnelten dem Produktuniversum von Apple: Lautsprecher, Kopfhörer, Brillen, Desktop-Geräte, tragbare Geräte - es wollte in jedem Szenario einen Zugangspunkt haben.
Aber OpenAI ist nicht Apple. Es hat nicht so viel Zeit, keine so guten Vertriebskanäle und keine so starke Hardware-Organisationsfähigkeit, um ein ganzes Ökosystem gleichzeitig aufzubauen. Im Vergleich zur Entwicklung eines ganzen Sets von AI-Hardwareprodukten ist es vernünftiger, die Ressourcen auf das Smartphone zu konzentrieren.
Aus Produktperspektive ist die Entwicklung eines Smartphones auch eine vernünftige Wahl: In den letzten zwei Jahren ist ChatGPT von einem Q&A-Tool zu einem Aufgaben-Zugangspunkt geworden. Aber egal wie stark ChatGPT ist, es ist immer noch eine App und unterliegt den Rechten des Betriebssystems und der Smartphone-Hersteller.
Es kann einige Tools aufrufen, aber es kann nicht das gesamte Gerät wirklich übernehmen. Es kann einen vom Benutzer eingegebenen Satz verstehen, aber es ist schwierig, den vollständigen Zustand des Benutzers kontinuierlich zu verstehen. Dies ist eine grundlegende Einschränkung für den AI-Agent.
OpenAI weiß natürlich von diesem Problem. Tatsächlich hat es bereits am Computer-Ende damit begonnen, es zu lösen: Die neuesten Änderungen an Codex bringen die AI von einem "Code-generierenden Chatfenster" zu einem "arbeitsfähigen Assistenten, der den Computer bedienen kann". Es kann den Bildschirm betrachten, Anwendungen verwenden, Dateien verarbeiten, zwischen verschiedenen Tools wechseln und komplexe Aufgaben in mehrere Schritte aufteilen und kontinuierlich vorantreiben.
Die Richtung von OpenAI ist klar: Es ist nicht zufrieden, wenn die AI nur in einem Dialogfenster bleibt. Es will, dass die AI in die reale Arbeitsumgebung eintritt, den Kontext erhält und direkt Aufgaben ausführt.
Am Computer-Ende kann dies zunächst über Codex erfolgen, denn der Computer ist von Natur aus ein Produktivitätsgerät, und die Benutzer akzeptieren Automatisierung, Dateiverarbeitung und Multi-Fenster-Zusammenarbeit leichter.
Aber am Mobil-Ende ist das Problem komplizierter: Das Smartphone ist persönlicher und privater als der Computer. Es betrifft Standort, Benachrichtigungen, Fotoalben, Adressbücher, Zahlungen, Kalender, soziale Beziehungen und den aktuellen Zustand.
Und in absehbarer Zukunft wird das Smartphone weiterhin das größte persönliche Endgerät sein. Man kann sagen, dass derjenige, der näher am Smartphone-Betriebssystem ist, bessere Chancen hat, zu verstehen, was der Benutzer gerade tut und was er braucht.
Das ist die Wichtigkeit der Smartphone-Hardware und des System-Zugangspunkts.
Am Beispiel des Doubao-Smartphones: Obwohl Doubao keine eigene Hardware entwickelt hat und den Weg der Umgestaltung bestehender Android-Smartphones eingeschlagen hat, hat es vielen Menschen zum ersten Mal gezeigt, dass die AI nicht nur im Smartphone chatten kann, sondern auch das Smartphone tatsächlich bedienen kann.
Es kann den Bildschirminhalt erkennen, die Benutzerabsicht verstehen, zwischen verschiedenen Anwendungen springen und für den Benutzer einige konkrete Aufgaben erledigen.
Obwohl die Benutzererfahrung möglicherweise noch nicht reif ist, ist die Richtung klar: Das Smartphone wird nicht nur ein Behälter für Apps, sondern möglicherweise die Ausführungsumgebung für den Agent.
Laut Guo Mingjis Analyse wird OpenAI wahrscheinlich nicht alle AI-Fähigkeiten in das lokale Gerät packen, wenn es tatsächlich ein Smartphone entwickelt.
Eine realistischere Lösung ist die enge Integration von Edge-AI und Cloud-AI: Das Smartphone-Ende ist für die kontinuierliche Verständnis des Benutzerkontexts zuständig, während komplexere Aufgaben weiterhin an die Cloud-AI delegiert werden.
Beispielsweise wo Sie sich befinden, was Sie gerade ansehen, welche Benachrichtigungen Sie gerade erhalten haben und ob Sie bald einen Termin haben... Solche Fähigkeiten erfordern geringe Latenzzeiten, müssen jederzeit einsatzbereit sein und betreffen eine große Menge an privaten Daten. Sie können nicht jedes Mal vollständig auf die Cloud verlassen.
Deshalb wird der Smartphone-Prozessor selbst sehr wichtig: Wie die Leistungskonsumtion kontrolliert wird, wie der Speicher hierarchisch verwaltet wird und ob ein kleines Modell lokal langfristig laufen kann, werden alle Probleme sein, die bei der Design von AI-Smartphone-Chips berücksichtigt werden müssen.
Aber Aufgaben wie mehrstufige Planung, komplexe Schlussfolgerungen, Verarbeitung von langen Texten, Recherche in einer großen Menge an Daten und die Verwendung großer Modelle für professionelle Aufgaben... Diese eignen sich nicht dazu, vollständig lokal auf dem Smartphone ausgeführt zu werden. Sie werden eher von Cloud-Modellen verarbeitet und das Ergebnis dann auf das Smartphone synchronisiert.
Dies erklärt auch, warum OpenAI sich entschieden hat, mit der Lieferkette zusammenzuarbeiten, anstatt alle Hardwarekomponenten von Grund auf selbst zu entwickeln.
Die Smartphone-Hardware ist bereits sehr reif. Es gibt eine ziemlich reife Industrie-Kette für Bildschirme, Kameras, Batterien, Antennen, Strukturbauteile und die Herstellung des gesamten Geräts.
OpenAI muss nicht Apple oder Samsung werden. Sein echter Vorteil liegt nicht in der traditionellen Hardware, sondern in der von ChatGPT aufgebauten Konsummarke, den echten Nutzungsrückmeldungen von über 800 Millionen wöchentlich aktiven Benutzern und der noch führenden Modellfähigkeit.
03 Alle AI-Hardware, die das Smartphone umgeht, ist gescheitert
Wenn OpenAI nur ein neuartiges Hardwareprodukt entwickeln wollte, gäbe es viele Formen. Aber wenn OpenAI will, dass der AI-Agent wirklich in den Alltag der Benutzer eintritt, ist es schwierig, das Smartphone zu umgehen. Die vergangene Runde von AI-Hardware hat bereits für OpenAI die Fehler gemacht.
Das Humane AI Pin ist das typischste Beispiel für ein Scheitern: Es hat versucht, die AI in ein kleines Gerät zu packen, das an der Brust befestigt werden kann, und über Sprache, Kamera und Projektion zu interagieren, um die Abhängigkeit der Benutzer vom Smartphone zu verringern. Aber nach dem Markteintritt war die Bewertung sehr schlecht, die Rücksendungen übertrafen die Verkäufe, und schließlich hat Humane den Verkauf des AI Pin eingestellt und die Vermögenswerte an HP verkauft. Der Cloud-Service für die bereits verkauften Geräte wurde auch im Februar 2025 geschlossen.
Das Rabbit R1 ist zwar nicht wie Humane geschlossen worden, aber es ist auch nicht zum neuen täglichen Zugangspunkt geworden. Der Slogan bei seiner Veröffentlichung war "Lassen Sie die AI Ihre Anwendungen bedienen". Es hat einmal mehr als 100.000 Exemplare verkauft, aber fünf Monate nach der Veröffentlichung wurde berichtet, dass nur etwa 5.000 Menschen es zu jedem beliebigen Zeitpunkt nutzten. Es hat gezeigt, dass das Konzept attraktiv ist, aber auch, dass ein einzelnes kleines Hardwareprodukt es schwierig hat, das Smartphone wirklich zu ersetzen.
Noch speziellere AI-Aufzeichnungsgeräte und AI-Begleitgeräte haben ebenfalls nicht auf dem Massenmarkt Fuß gefasst. Das früher beliebte Limitless Pendant hat den Verkauf eingestellt; die Friend AI-Kette ist in Bezug auf die Benutzererfahrung und die Privatsphäre sehr umstritten.
Die relativ gut funktionierenden AI-Smartbrillen sind nur eine Ergänzung für das Smartphone: Sie sind eher ein Aufnahme-, Audio- und einfacher AI-Zugangspunkt, als ein neues persönliches Rechenzentrum.
Das Smartphone ist das Gerät, das die Benutzer am längsten am Tag nutzen, am längsten mit sich tragen, über die vollständigen Rechte verfügt und über die reifste Anwendungs-Ökosystem. Es hat eine Kamera, Standortbestimmung, Zahlungsmöglichkeiten, soziale Beziehungen und die dichtesten Echtzeitinformationen aus dem Benutzerleben.
Die Benutzer möchten natürlich, dass die Geräte intelligenter werden, die Bedienung einfacher wird und die Sprünge zwischen Anwendungen weniger werden. Aber es gibt keinen Grund, ein neues Gerät zusätzlich zu tragen, nur wegen einer noch nicht reifen AI-Funktion.
04 Der Weg der Exploration von AI-Smartphones
OpenAI ist nicht der Pionier auf dem Weg der Exploration von AI-Smartphones.
Google hat bereits 2016 begonnen, sein eigenes Smartphone Pixel zu entwickeln. Damals hat die Offizielle es "phone by Google" genannt, also das erste Smartphone, das wirklich unter der Google-Marke auf den Markt gebracht wurde.
2025, als die Pixel 10-Serie veröffentlicht wurde, hat Google den Schwerpunkt eindeutig auf die AI gelegt und bei der Veröffentlichung mehr auf die AI als auf die Hardware-Upgrades hingewiesen: Das Pixel 10 ist mit dem Tensor G5 ausgestattet und hat mehr Gemini-verwandte Fähigkeiten, die Funktionen wie Magic Cue, Voice Translate und Pro Res Zoom unterstützen.
Außer der Eigenentwicklung hat Google auch mit Samsung zusammengearbeitet, um die AI in einen größeren Smartphone-Markt zu bringen.
Ab Galaxy S24 hat Samsung Gemini Pro und Imagen 2 in die Galaxy AI integriert. Bei Galaxy S25 ist diese Zusammenarbeit noch systematischer geworden. Gemini kann jetzt über die Seiten Taste aufgerufen werden und kann Aufgaben zwischen Samsung, Google und sogar einigen Drittanbieter-Anwendungen koordiniert ausführen.
Die Samsung-Website nennt es Cross App Action, was bedeutet, dass der Benutzer nur eine Anfrage stellen muss, und die AI kann mehrstufige Operationen über mehrere Anwendungen hinweg ausführen.
Apple macht ebenfalls das Gleiche, nur dass es es nicht AI-Smartphone nennt. Es ist eher eine AI-Transformation des Smartphones.
Apple hat auf der WWDC 2024 Apple Intelligence veröffentlicht. Die Kernaussage ist, dass die AI nicht mehr eine einzelne App ist, sondern in iPhone, iPad und Mac integriert ist, den persönlichen Kontext verstehen kann, Aktionen über Apps hinweg ausführen kann und über Siri auf die Benutzer zugreifen kann.
Aber Apple ist auf ein sehr schwerwiegendes Problem gestoßen: Die wichtigste neue Version von Siri wurde nicht rechtzeitig fertiggestellt.
Laut Bloomberg hat der interne Leiter von Apple, der für Siri verantwortlich ist, diese Verzögerung als "hässlich und peinlich" bezeichnet und meinte, dass die öffentliche Propaganda, bevor die Technologie bereit war, die Sache noch schlimmer gemacht habe.
Natürlich ist es nicht ein vollständiges Scheitern, denn Apple hat auf der WWDC 2025 weiterhin neue Apple Intelligence-Fähigkeiten veröffentlicht, aber es hat tatsächlich nicht den erwarteten Sprung zum AI-Smartphone erreicht.
Und Musk, der immer mit OpenAI in Konflikt gerät und bald vor Gericht steht, hat sich auch mehrmals in Richtung AI-Smartphone gedreht, aber bisher scheint es eher so, dass er sich am Rande des Smartphones positioniert.
Bereits als die Beziehungen zwischen X und den App-Stores von Apple und Google angespannt waren, hat er gesagt, dass er ein alternatives Smartphone bauen würde, wenn es keine andere Wahl gäbe. Seitdem gibt es auch immer wieder Gerüchte über das Tesla Phone, das X Phone und das Starlink Phone.
2025 hat SpaceX etwa 17 Milliarden US-Dollar ausgegeben, um eine Reihe von Funkfrequenzen von EchoStar zu kaufen, um die Fähigkeit der Starlink-Satelliten zur direkten