OpenAI-Chef warnt: Die USA unterschätzen die Stärke Chinas in der KI stark, und die Exportkontrollen nützen nichts.
Der Chef von OpenAI, Sam Altman, hat jüngst gewarnt, dass die Vereinigten Staaten möglicherweise die Komplexität und Schwere der Fortschritte Chinas auf dem Gebiet der Künstlichen Intelligenz (KI) unterschätzen. Zudem meinte er, dass Exportkontrollen alleine möglicherweise keine zuverlässige Lösung seien.
Altman hat sich in letzter Zeit seltenen öffentlichen Interviews bei einigen Medien unterzogen. Er erklärte, er sei besorgt über die Fortschritte Chinas auf dem Gebiet der KI. "Ich bin sehr besorgt über die Stärke Chinas."
Er warnte: Der Wettlauf zwischen den USA und China um die Führung in der KI ist tief miteinander verflochten, und seine Auswirkungen sind weitaus größer als die einfache Rangliste darüber, "wer vorne liegt".
"Chinas Fähigkeiten in Bezug auf Inferenzfähigkeiten könnten sich möglicherweise schneller entwickeln. Darüber hinaus gibt es auch Forschungsfähigkeiten und die Fähigkeit, Produkte zu entwickeln. Es gibt viele Aspekte in diesem gesamten Bereich. Ich denke, die Frage ist nicht so einfach wie 'Bleiben die USA oder China vorne?'," fügte er hinzu.
Andererseits zweifelt Altman, obwohl die USA die Exportkontrollen für Halbleiter ständig verschärfen, daran, ob diese Politik der technologischen Entwicklung folgen kann.
Als ihn gefragt wurde, ob eine weitere Reduzierung der GPU-Lieferungen an China durch Exportkontrollen wirksam wäre, äußerte er Zweifel und sagte: "Meine Intuition sagt mir, dass das nicht funktionieren wird."
Er sagte: "Man kann Exportkontrollen für einen bestimmten Bereich einführen, aber vielleicht ist das nicht genau genug... Vielleicht werden Menschen Waferfabriken errichten oder andere Umgehungsmöglichkeiten finden." Hierbei meinte er die Halbleiterherstellungsanlagen, also die Spezialfabriken zur Herstellung von Chips.
"Ich möchte eine einfache Lösung. Aber meine Intuition sagt mir: Das wird schwierig," fügte er hinzu.
Die Auswirkungen von Chinas Open-Source-Systemen
Altman erklärte, dass die Fortschritte Chinas in der KI auch OpenAIs Überlegungen zu seiner eigenen Strategie bei der Veröffentlichung von Modellen beeinflusst haben.
Obwohl OpenAI es seit langem ablehnt, seine Technologie vollständig Open Source zu machen, sagte Altman, dass der Wettbewerb von chinesischen Großmodellen - insbesondere von Open-Source-Systemen wie DeepSeek - ein Faktor für OpenAIs jüngste Entscheidung war, eigene Modelle mit offenen Gewichten zu veröffentlichen.
"Es ist offensichtlich, dass wenn wir das nicht tun, die meisten Systeme in der Welt in Zukunft auf chinesischen Open-Source-Modellen aufbauen könnten. Das war sicherlich ein Faktor für unsere Entscheidung. Auch wenn es nicht der einzige ist, scheint das Problem ziemlich groß zu sein," sagte er.
Früher in diesem Monat hat OpenAI zwei Sprachmodelle mit offenen Gewichten veröffentlicht. Dies war das erste Mal seit der Veröffentlichung von GPT - 2 im Jahr 2019, dass das Unternehmen Modelle mit offenen Gewichten veröffentlichte und markiert eine erhebliche strategische Wende. Bisher hat OpenAI seine Technologie lange Zeit hinter einer Programmierschnittstelle (API) versteckt.
Die neuen reinen Textmodelle heißen gpt - oss - 120b und gpt - oss - 20b und sollen als kostengünstige Option für Entwickler, Forscher und Unternehmen dienen, die sie herunterladen, lokal ausführen und anpassen können.
Es ist bekannt, dass ein KI - Modell als Modell mit offenen Gewichten gilt, wenn seine Parameter (d. h. die Werte, die während des Trainings gelernt werden und bestimmen, wie das Modell Antworten generiert) öffentlich zugänglich sind. Obwohl dies Transparenz und Kontrolle bietet, unterscheidet es sich von Open Source. OpenAI hat bislang noch keine Trainingsdaten oder den vollständigen Quellcode veröffentlicht.
Mit dieser Veröffentlichung hat sich OpenAI der Bewegung angeschlossen. Derzeit ist es das einzige große amerikanische Unternehmen für Basis - KI - Modelle, das sich aktiv für einen offeneren Ansatz einsetzt.
Ein KI - Modell gilt als Modell mit offenen Gewichten, wenn seine Parameter (die Werte, die während des Trainings gelernt werden und bestimmen, wie das Modell Antworten generiert) öffentlich zugänglich sind. Obwohl dies Transparenz und Kontrolle bietet, unterscheidet es sich von Open Source. OpenAI hat immer noch keine Trainingsdaten oder den vollständigen Quellcode veröffentlicht.
Allerdings gibt es unterschiedliche Meinungen zur Veröffentlichung der Modelle mit offenen Gewichten. Einige Entwickler halten die Modelle für durchschnittlich und weisen darauf hin, dass die leistungsstarken Funktionen aus OpenAIs kommerziellen Produkten in der Version mit offenen Gewichten fehlen.
Altman widersprach nicht dieser Meinung und erklärte, dass das Team bewusst auf ein Kernanwendungsgebiet optimiert habe: auf lokalen Programmieragenten.
"Wenn sich die Bedürfnisse in der Welt ändern, können Sie das Modell auch für andere Zwecke nutzen," sagte er.
Dieser Artikel stammt aus dem WeChat - Account "Kebangban Daily". Autor: Huang Junzhi. Veröffentlicht von 36Kr mit Genehmigung.