StartseiteArtikel

Jensen Huang spricht mit 10 Chefs von Open-Source-AI-Projekten: Die zukünftige Rechenleistung wird stärker auf die Nachbearbeitung von Trainingsdaten ausgerichtet. OpenClaw eröffnet neue Vorstellungen für moderne Computer.

AI科技大本营2026-03-20 11:40
Die Zukunft gehört der "Engineering-Management".

Auf der GTC 2026 lud Jensen Huang eine Gruppe von Gästen ein, die selten zusammen an einem Tisch sitzen: Harrison Chase von LangChain, Michael Truell von Cursor, Misha Laskin von Reflection AI, Aravind Srinivas von Perplexity, Mira Murati von Thinking Machines Lab, Arthur Mensch von Mistral, Daniel Nadler von OpenEvidence, Hanna Hajishirzi von AI2, Robin Rombach von Black Forest Labs und Anjney Midha von AMP.

Das Thema dieses Roundtables konzentrierte sich auf Open Models (Offene Modelle). Doch nach 80 Minuten gehörte man feststellen, dass ihre Diskussion weit über die Frage hinausging, "Welches ist stärker, das Open-Source-Modell oder das Closed-Source-Modell".

Jensen Huang legte zu Beginn die Richtung für diese Diskussion fest. Er sagte, die Außenwelt habe viel Zeit damit verbracht, über die führenden Closed-Source-Modelle und Closed-Source-Labore zu diskutieren. Sie seien natürlich sehr wichtig, "in vielerlei Hinsicht gründen sie die Grundlage für die gesamte Branche". Aber darüber hinaus gäbe es in der KI noch viel mehr Vielfalt: Wie Modelle erstellt, in Anwendungen integriert und in verschiedenen Branchen umgesetzt werden, gäbe es nicht nur eine Antwort.

Er gab eine sehr auffällige Einschätzung: Betrachtet man die Gesamtgröße, sind die open models zusammen bereits die zweitgrößte Modellgruppe der Welt; und in verschiedenen Branchen und Anwendungen werden sie wahrscheinlich schließlich die größte Modellgruppe der Welt werden.

Nach Ansicht von Jensen Huang ist die Zukunft nicht A oder B, nicht, dass ein Modell das andere besiegt, sondern "die Kombination von Systemmodellen". Dies war auch die stabilste und klarste Hauptlinie des gesamten Roundtables.

Obwohl dieses Gespräch unter dem Titel "Open Models" stand, brachten die Gäste die Diskussion bald auf eine tiefere Ebene: Das Modell ist nicht mehr der einzige Protagonist. Tatsächlich wird ein neues System aus Modellen, Tools, Verbindern, Agenten, Steuerungsebenen und Unternehmensgovernance gebildet. In diesem Sinne ähnelt dieses Roundtable eher einer kollektiven Definition der nächsten Phase der KI-Branche als einer "Diskussion über Open-Source-Modelle".

1. Wie hat Jensen Huang das Thema dieses Roundtables festgelegt?

Jensen Huangs Einleitung war zwar kurz, aber sehr informativ.

Er legte zunächst die bekannte Erzählung vor: Die führenden Labore wie OpenAI, Anthropic, Gemini und xAI seien natürlich wichtig, und die Closed-Source-Frontier-Modelle seien natürlich wichtig. Man könnte sogar sagen, dass sie die erste Antriebskraft für die gesamte Branche bilden. Dann schob er die Frage sofort einen Schritt weiter: Wenn man KI nur als die stärksten Modelle versteht, die von wenigen Labors hergestellt werden, dann ist die Vorstellung von der gesamten Branche zu eng.

Er sagte, models are a technology, just as transistors are a technology, not a product. Modelle sind eine Technologie, genauso wie Transistoren eine Technologie sind, aber kein Endprodukt; Open Model ist eine Technologie, ChatGPT ist das Produkt. Diese Aussage hat eigentlich eine Grenze für das gesamte Roundtable gezogen: Die Gäste diskutierten nicht den Markt für Chatbots, sondern, wie die Branche tatsächlich entstehen wird, nachdem das "Modell als technologische Basis" vorhanden ist.

Die heutige Welt braucht natürlich exklusive KI-Produkte und auch Unternehmen, die Modelle direkt als Produkte verkaufen; aber gleichzeitig braucht die gesamte Branche auch ein größeres Ökosystem, in dem verschiedene Branchen und Unternehmen Modelle als technische Materialien nutzen können, um sie weiter zu verarbeiten und in eigene Produkte, Systeme und Dienstleistungen umzuwandeln.

Als Jensen Huang also die erste Frage stellte - "Welche Missverständnisse haben die Menschen wirklich gegenüber Großmodellunternehmen wie OpenAI und anderen Unternehmen in der Ökosystem?" - handelte es sich eigentlich nicht mehr um eine einfache Frage von Open-Source vs. Closed-Source, sondern um die Frage: Welche neuen Rollen werden in der KI-Software-Stack auftauchen, außer den beiden bekannten Rollen "stärkstes Modellunternehmen" und "Anwendungsunternehmen"?

2. Das Modell ist nicht mehr alles, es wird ein "System" gebildet

Wenn man die am häufigsten wiederholte Einschätzung aus diesem Roundtable herausgreift, dann lautet sie: KI ist nicht mehr nur ein Modell, KI wird zu einem System.

Michael Truell, Mitbegründer und CEO von Cursor, sagte, in der Vergangenheit habe man immer angenommen, dass es in der KI-Software-Ebene nur zwei Arten von Unternehmen gebe: Einerseits Unternehmen, die sehr große allgemeine Basis-Modelle entwickeln und über APIs Fähigkeiten anbieten; andererseits Unternehmen, die auf diesen Modellen aufbauende Anwendungs-Produkte entwickeln.

Aber nach seiner Ansicht entsteht und wächst jetzt tatsächlich eine dritte Art von Unternehmen: Sie nutzen einerseits die besten Modell-APIs auf dem Markt, andererseits leisten sie auch viel eigenes Werk auf der Ebene von Modellen und Agenten.

Michael Truell meinte sehr deutlich: Die zukünftige Software-Stack wird nicht einfach nur aus "Basis-Modell + oberer Anwendungs-Schicht" bestehen. Mit zunehmender Komplexität der Agenten wird die Fähigkeit, verschiedene Modelle, Tools und Ausführungsabläufe zu organisieren, selbst zu einer neuen Kernfähigkeit werden.

Er erwähnte, dass KI zunächst nur "ein Modell aufrufen" konnte, dann begann man mit dem Tool-Aufruf, und in den nächsten ein bis zwei Jahren werden es echte neue Agenten geben - sie werden wie Kollegen komplexe Aufgaben über Stunden oder sogar Tage hinweg übernehmen. Bei einer solchen Komplexität ist ein einzelnes Modell möglicherweise nicht die beste Lösung. Verschiedene Modelle haben verschiedene Stärken, daher wird das System eine komplexe Aufgabe auf verschiedene Modelle aufteilen.

Er sagte, es werden in Zukunft viele komplexe Agenten geben, die möglicherweise nicht von einem stärksten Modell abhängen, sondern durch Orchestrierung das gesamte System "klüger als jedes einzelne Modell" machen.

Aravind Srinivas, CEO von Perplexity, sagte noch direkter: KI ist kein Modell, KI ist ein System, ein Computer.

Er führte als Beispiel sein eigenes Perplexity Computer an und sagte, sie wollten ein Orchestrierungssystem aufbauen, das alles, was KI kann, wie Coding, Schreiben, multimodale Generierung, organisiert, und verschiedene Tools, Modelle, Dateisystem-Verbinder und Multicloud-Ressourcen verbinden, damit die Benutzer nur die Aufgabe abgeben müssen und sich nicht mehr um "welches Modell was gut kann" kümmern müssen.

Aravind benutzte eine sehr anschauliche Metapher: Sub-Agenten sind wie Musiker, Modelle sind nur Instrumente, und die Arbeit, die KI tatsächlich für Sie erledigt, ist das Orchesterstück.

In seiner Beschreibung sind open und closed auch nicht in einem gegensätzlichen Verhältnis. Offene Modelle zeichnen sich oft durch eine bessere Token-Effizienz und Kosteneffizienz aus, während Closed-Source-Modelle möglicherweise besser in der Orchestrierung, Inference und Tool-Aufruf sind. Schließlich werden die Modelle immer mehr wie Tools selbst, wie Dateisysteme und Verbinder, ein Bestandteil des gesamten Systems.

Dies ist auch ein sehr repräsentativer Wandel in diesem Roundtable: Niemand vereinfacht open und closed wirklich zu einer moralischen Haltung oder einem Kursstreit. Im Gegenteil, je näher die Gäste an den tatsächlichen Produkten und der Agenten-Ausführungs-Ebene sind, desto konkreter sprechen sie: Offene Modelle haben ihren Wert, Closed-Source-Modelle haben ihren Wert, und das echte System nimmt oft beide auf.

Harrison Chase, CEO von LangChain, fasste diese Denkweise in einem neuen Begriff zusammen: harness engineering (Harness-Engineering).

Nachdem ich in den letzten Tagen an verschiedenen Stellen herumgesehen habe, habe ich das Gefühl, dass dieser Begriff in der nächsten Zeit ein beliebter Begriff sein wird.

Das sogenannte harness engineering beinhaltet im Wesentlichen alles um das Modell herum: Wie es Tools verbindet, wann welches Prompt aufgerufen wird, welche Sub-Agenten verwendet werden und welchem Sub-Agenten welches Modell zugewiesen wird. Selbst Closed-Source-Labore machen dasselbe. Nehmen wir Claude Code als Beispiel. Natürlich wird man das Modell selbst loben, aber was es wirklich nützlich macht, ist die um das Modell herum aufgebaute Harness.

Wenn Harisson und seine Kollegen mit Entwicklern zusammenarbeiten, diskutieren sie immer mehr nicht "welches Modell man verwenden sollte", sondern "wie man für eine bestimmte Umgebung eine passende Harness aufbaut".

Dies beantwortet auch die in der KI-Branche in den letzten Jahren sehr häufige verächtliche Einschätzung - "ein bestimmtes Produkt ist nur ein Wrapper". In diesem Roundtable sieht fast niemand den Wrapper mehr als einen Wertlosen Begriff. Im Gegenteil, man erkennt immer mehr, dass es oft genau diese in der Vergangenheit unterschätzten Teile sind, die das Modell in Produktivität umwandeln: Kontextverwaltung, Tool-Eingang, Routing, Gedächtnis, Arbeitsablauf, Berechtigungen und Ausführungsstrategien.

Misha Laskin, CEO von Reflection AI, fügte noch eine weitere Ebene hinzu. Er sagte, es gäbe zwei sehr häufige Missverständnisse über Modellunternehmen.

Das erste Missverständnis ist, dass man denkt, dass Modellunternehmen nur "ein Modell entwickelt" haben. Tatsächlich kauft man, wenn man ein kommerzielles Modell kauft, die gesamte Stapel von Chip, Orchestrierung, Software, Inference bis hin zum Produkt. Der Wert der Offenheit liegt darin, dass andere auch entlang der gesamten Kette das System von Anfang bis Ende neu optimieren können.

Das zweite Missverständnis ist, dass man denkt, dass offene Modelle von Natur aus hinter den Frontier-Modellen zurückbleiben. Misha Laskin meint, dass dies nur ein Phänomen der gegenwärtigen Phase ist, kein grundlegender Gesetzmäßigkeit. In seiner Ansicht gibt es zwischen open und closed im Wesentlichen keine unüberwindbare Grenze; Modelle sind "Wissens-Infrastruktur", und "Wissens-Infrastruktur neigt von Natur aus zur Offenheit".

Mira Murati, Gründerin von Thinking Machines Lab und die uns bekannte ehemalige CTO von OpenAI, betrachtete die "Offenheit" in einem größeren Innovationsprozess.

Sie sagte, die Fortschritte seien sehr schnell, alles stehe auf einer exponentiellen Kurve und der Rhythmus sei stark komprimiert. Es sei zu viel zu lernen, um alles von wenigen großen Labors allein erledigen zu können. Viele intelligente Leute fehle nicht die Fähigkeit, sondern die Möglichkeit, auf Wissen und Tools zuzugreifen. Daher werde die Offenheit hier sehr wichtig - nicht nur das Modell selbst, sondern auch die Infrastruktur, die Daten und die Forschungs-Einsichten.

Sie erwähnte besonders, dass viele Menschen die Offenheit als eine Nullsummenwahl betrachten würden, als ob die Offenheit der kommerziellen Nutzung abträglich sei. Aber sie stimmte nicht zu. Sie führte ein frühes Entscheid ihrer eigenen Gruppe an: Die Offenlegung der API für die Nach-Training, damit mehr Forscher auf offenen Modellen weiter nach-trainieren können.

Aus den Antworten dieser Personen geht hervor, dass die Bedeutung von open models offensichtlich nicht nur die Frage "ob die Gewichte offen sind" ist, sondern: Wer kann an der Nach-Training teilnehmen, wer kann an der Architektur-Evolution teilnehmen, wer kann das Modell in sein eigenes System einführen, wer kann es in seiner eigenen Domäne neu definieren?

3. Warum treten in den letzten zwei Jahren die Wendepunkte von generativer KI über Inferenz bis hin zu Agenten-Systemen auf?

Jensen Huang fasste die KI-Evolution in der vergangenen Zeit in drei Phasen zusammen: Generative KI, Inferenz, Agenten-Systeme.

Er gab auch eine sehr bemerkenswerte Einschätzung: In der Vergangenheit habe man immer die Aufmerksamkeit auf das Pre-Training gerichtet und über die Fähigkeiten wie "Gedächtnis", "Generalisation" und "Grundwissen" diskutiert. Aber in seiner Ansicht wird der Hauptverbrauch an Rechenleistung in Zukunft wahrscheinlich nicht mehr auf das Pre-Training konzentriert sein, sondern eher auf das Nach-Training. Denn das Grundwissen ist nur der Anfang, und um dem Modell Fähigkeiten zu verleihen und es zu einem umsetzbaren System zu machen, wird das Nach-Training immer wichtiger werden.

Diese Einschätzung stimmt genau mit dem gemeinsamen Gefühl einiger Gäste vor Ort überein: Der offensichtlichste Wandel im vergangenen Jahr war nicht, dass die Modelle mehr Fakten kannten, sondern dass sie wirklich "tun können" begannen.

Zu dieser Frage gaben die Gäste jeweils verschiedene Wendepunkte an.

Misha Laskin zog die Zeitlinie weiter zurück. Er sagte, was ihn wirklich von der theoretischen Physik zur KI brachte, war nicht das Sprachmodell, sondern AlphaGo. Das war das erste Mal, dass er einen massiven "Super-Intelligent-Agenten" sah. In seinen Augen war das Wichtigste an AlphaGo: Es hört nicht auf zu lernen, die Frage ist eher eine wirtschaftliche Frage - wie viel Rechenleistung man investieren möchte, um es um das Zehnfache stärker zu machen. Jetzt beginnt RL auch bei Sprachmodellen zu funktionieren. In seiner Ansicht könnte die Lösung von Grundlagenwissenschaftsproblemen in Zukunft auch allmählich zu einer Frage von Rechenleistung und