StartseiteArtikel

Die sechs großen AI-Unternehmen treten gemeinsam auf der Bühne auf: AGI ist kein Thema der "Zukunft" mehr.

AI深度研究员2025-11-08 09:41
Am 7. November 2025 fand eine Runde Tafel-Diskussion mit den Preisträgern des Queen Elizabeth Prize for Engineering 2025 statt. Teilnehmer waren Jensen Huang, Yoshua Bengio, Geoffrey Hinton, Fei-Fei Li, Yann LeCun und Bill Dally.

Am 7. November 2025, nach der Preisverleihung des Queen Elizabeth Engineering Prize in London, wird durch ein Rundtischgespräch das Verständnis von der Zukunft der Künstlichen Intelligenz (KI) neu definiert.

Die sechs Teilnehmer sind keine gewöhnlichen Branchenvertreter, sondern Schlüsselfiguren dieser KI-Revolution:

Geoffrey Hinton, Yoshua Bengio, Yann LeCun: Die drei Begründer des Deep Learning;

Fei - Fei Li: Initiatorin des ImageNet und Pionierin der Raumintelligenz;

Bill Dally: Hauptdesigner der GPU - Berechnungsarchitektur;

Jensen Huang: Der größte Treiber der Industrialisierung der KI.

Dies ist ein extrem seltenes kollektives Gespräch.

Das zentrale Thema ist nur eines: Ist die Allgemeine Künstliche Intelligenz (AGI) wirklich da?

Keiner gibt eine Standarddefinition, und niemand kündigt an, dass die Technologie abgeschlossen sei. Doch in den nächsten 30 Minuten senden die sechs Pioniere aus ihrer jeweiligen Perspektive dasselbe Signal: Die AGI ist kein ferner Ziel mehr, sondern beginnt bereits in der Realität Wirksamkeit zu entfalten.

Hinton sagt: Innerhalb von 20 Jahren werden Maschinen alle Menschen in Debatten besiegen.

Jensen Huang sagt: Wir nutzen heute bereits eine AGI - ähnliche Intelligenz in der Praxis.

Fei - Fei Li sagt: In einigen Bereichen übertreffen Maschinen bereits den Menschen, aber die Evolutionsrichtung muss nicht unbedingt human sein.

LeCun sagt direkt: Die gegenwärtigen großen Modelle entsprechen nicht der echten Intelligenz. Wir haben noch nicht einmal Maschinen, die so schlau wie eine Katze sind.

Hinter den Differenzen verbirgt sich ein Konsens: Das Paradigma wandelt sich.

Abschnitt 1 | Vierzig Jahre Akkumulation: Wie ist die AGI entstanden?

Als der Moderator fragt: Was war der Augenblicke der Einkleidung in Ihrem Leben? Der Moment, der Sie auf den Weg der KI gebracht hat. Die sechs Personen erzählen nacheinander von ihren jeweiligen Ausgangspunkten.

Diese Geschichten liegen Jahrzehnte auseinander, bilden aber eine klare Zeitlinie: Die heutige AGI ist keine plötzliche Mutation, sondern das Ergebnis eines vierzigjährigen Schritt - für - Schritt - Evolutionsprozesses.

Yoshua Bengio sagt, dass er zum ersten Mal stark von der KI fasziniert wurde, als er als Student die frühen Arbeiten von Geoffrey Hinton las. Damals wurde ihm plötzlich klar: Vielleicht gibt es hinter der menschlichen Intelligenz ein einfaches Prinzip, ähnlich wie in der Physik.

Genau diese Entdeckung hat ihn dazu gebracht, sich für die Forschung an neuronalen Netzen zu entscheiden.

Jahrzehnte später, als ChatGPT erschien, erlebte er einen zweiten Schock: Mein Gott, was tun wir? Wir haben Maschinen geschaffen, die Sprache verstehen und Ziele haben. Aber was passiert, wenn ihre Ziele nicht mit denen des Menschen übereinstimmen?

Da wandte er sich vollständig an die Forschung zu KI - Sicherheit und Ethik, indem er das Verständnis der Intelligenz in die Bindung der Intelligenz umwandelte.

Geoffrey Hinton hat noch ältere Erinnerungen.

1984 habe ich versucht, ein kleines Modell dazu zu bringen, das nächste Wort eines Satzes vorherzusagen, sagt er. Es konnte selbst die Beziehungen zwischen Wörtern lernen. Das war ein mikroskopisches Sprachmodell. Damals hatte er nur 100 Trainingsbeispiele, sah aber bereits die Vorlage für die Zukunft: Wenn ein Modell das nächste Wort vorhersagen kann, kann es die Welt verstehen.

Das war der Prototyp aller späteren großen Sprachmodelle, nur gab es damals keine Rechenleistung und keine ausreichenden Daten.

Er hielt inne und fügte hinzu: Wir haben 40 Jahre gebraucht, um zu den heutigen Ergebnissen zu kommen.

Bill Dally erlebte zwei entscheidende Einkleidungen.

Die erste war Ende der 90er Jahre an der Stanford University. Er dachte über die Lösung des Memory Wall Problems nach, also die Schwierigkeit, dass der Energieverbrauch und die Zeit, die für den Zugriff auf den Speicher benötigt werden, weit höher sind als die eigentliche Berechnung. Er hatte die Idee, die Berechnung in Kerne zu organisieren, die durch Datenströme verbunden sind, so dass mit weniger Speicherzugriffen mehr Berechnungen durchgeführt werden können.

Diese Idee entwickelte sich später zum Stream Processing und schließlich zur GPU - Berechnung.

Die zweite war ein Frühstück im Jahr 2010. Ich hatte Frühstück mit Andrew Ng an der Stanford University, sagt er. Sie trainierten an der Google mit 16.000 CPUs ein neuronales Netz, um Maschinen zu lehren, Katzen im Internet zu finden. In diesem Moment wurde Dally bewusst, dass dies nicht mehr nur eine Laborvorstellung war, sondern ein skalierbares Rechenmodell. Er kehrte zu NVIDIA zurück und reproduzierte das Experiment mit Brian Catanzaro mit 48 GPUs. Das Ergebnis überzeugte ihn vollständig: Die GPU ist der wahre Motor des Deep Learning.

Wir müssen speziell für das Deep Learning GPUs entwickeln, sagt er. Dieses Frühstück hat die Richtung von NVIDIA verändert und auch mein weiteres Leben.

Fei - Fei Lis Einkleidung kam aus einer anderen Dimension: den Daten.

Die menschliche Intelligenz wird in der Anfangsphase von einer riesigen Menge an Sinnesdaten überflutet, Maschinen hingegen nicht.

Zwischen 2006 und 2007 wechselte sie von der Studentin zur jungen Professorin und experimentierte mit verschiedenen Algorithmen wie Bayes, Support Vector Machines und neuronalen Netzen. Doch die Maschinen konnten immer noch nicht generalisieren und neue Muster nicht erkennen.

Schließlich wurde ihr und ihren Studenten klar: Es fehlten nicht die Algorithmen, sondern die Daten.

Also entschieden sie sich für etwas, das damals als verrückt erschien: Innerhalb von drei Jahren sollten 15 Millionen Bilder manuell annotiert werden, um das ImageNet zu erstellen, das 22.000 Kategorien abdeckt. Diese Daten wurden später zum Grundstein der KI - Sichtrevolution und gaben den Maschinen erstmals die Fähigkeit, die Welt zu verstehen.

Sie sagt: Große Daten treiben das maschinelle Lernen an. Dies ist die Grundlage aller heutigen Skalierungsgesetze der KI.

Yann LeCun war einer der ersten Mitstreiter.

Schon während meines Studiums war ich von der Idee fasziniert, Maschinen selbst lernen zu lassen, anstatt ihnen zu sagen, was sie tun sollen. 1983 las er als Student erstmals die Arbeiten von Hinton; zwei Jahre später trafen sie sich bei einem Lunch und stellten fest, dass sie miteinander reden konnten.

Ich finde, ich bin zu faul oder zu dumm, um die Regeln der Intelligenz manuell zu schreiben. Lassen Sie die Maschinen sich selbst organisieren und lernen. Das ist die Art des Lebens.

Interessanterweise stritten sich er und Hinton Ende der 80er Jahre darüber, ob das überwachte oder das unüberwachte Lernen der richtige Weg sei. Später führte der Erfolg des ImageNet dazu, dass das gesamte Feld vorübergehend zum überwachten Lernen wechselte. Aber ab 2016 und 2017 wurde ihnen klar, dass man zum selbstüberwachten Lernen zurückkehren musste. Dies ist die heutige Trainingsmethode der großen Sprachmodelle.

Vierzig Jahre später hält er immer noch fest: Der Kern der Intelligenz ist die Selbstorganisation, nicht die Befehle.

Zuletzt war es die Zeit von Jensen Huang.

Für mich war der wichtigste Moment, als ich erkannte, dass die zugrunde liegenden Logiken der Chip - Entwicklung und des Aufbaus von Deep Learning - Systemen übereinstimmen.

Er erklärt, dass er einer der ersten Ingenieure war, der Chips mit hoher Abstraktion und strukturierten Werkzeugen entwerfen konnte. Um 2010 sah er, dass auch das Deep Learning Frameworks und strukturierte Methoden zur Softwareentwicklung nutzte. Da wurde ihm plötzlich klar: Dies ist der gleiche Denkansatz wie bei der Chip - Entwicklung.

Vielleicht können wir die Softwarefähigkeiten genauso erweitern wie die Chip - Entwicklung.

Später, als die Forschungsgruppen von Toronto, New York und Stanford fast gleichzeitig NVIDIA um Rechenleistung baten, verstand er: Die KI geht von der Theorie in die Praxis. Sobald ein Algorithmus auf einer GPU parallel laufen kann, kann er auf mehreren GPUs, mehreren Systemen und mehreren Rechenzentren laufen. Der Rest ist nur noch Engineering.

Die sechs Geschichten zusammen bilden das Evolutionsbild der KI in den letzten vierzig Jahren.

Hinton hat den Samen des Algorithmus gesät, Bengio hat ihn zu einem wissenschaftlichen Problem gemacht, LeCun hat ihm beigebracht, sich selbst zu organisieren, Fei - Fei Li hat ihm die Welt gezeigt, Bill Dally hat ihn schneller laufen lassen, und Jensen Huang hat ihn zum Motor der Industrie gemacht.

Natürlich ist ihre Arbeit viel komplexer und miteinander verflochten, aber diese sechs Personen haben tatsächlich gemeinsam die Grundlage der heutigen KI geprägt.

Die heutige AGI ist kein plötzlich auftauchender Genie, sondern das Ergebnis eines vierzigjährigen gemeinsamen Prozesses.

Abschnitt 2 | Die Zeitlinie bricht: Einige sagen sie ist da, andere sagen sie wird nie kommen

Vierzig Jahre ago begannen sie alle ihren Weg in die KI. Vierzig Jahre später, vor demselben Ziel stehend, sehen sie jedoch verschiedene Zukünfte.

Als der Moderator die Frage stellte: Wie lange sind wir noch von einer menschlichen Intelligenz entfernt?

Dies ist eine Frage, der sich niemand entziehen kann und über die niemals ein Konsens erreicht wurde.

In den nächsten Minuten gaben die sechs Personen sechs völlig verschiedene Antworten. Sie sprachen nicht über den Fortschritt der Modelle oder die Veröffentlichungsgeschwindigkeit, sondern über echte intelligente Maschinen, Systeme, die verstehen, denken und handeln können.

LeCun war der erste, der sprach und lehnte direkt die Prämisse der Frage ab.

Dies wird kein Ereignis sein. Denn die Fähigkeiten werden in verschiedenen Bereichen schrittweise erweitert.

Vielleicht werden wir in den nächsten fünf bis zehn Jahren einige bedeutende Fortschritte bei der Entwicklung neuer Paradigmen erzielen. Dann werden die Fortschritte kommen, aber es wird länger dauern, als wir denken.

Sein Punkt ist klar: Warte nicht auf einen Singularitätsmoment, die AGI entwickelt sich schrittweise, nicht sprunghaft.

Fei - Fei Li brachte eine andere Perspektive ein: Die Frage sollte nicht sein, ob die KI den Menschen übertreffen wird, sondern in welchen Bereichen sie ihn bereits übertrifft.

Einige Teile der Maschinen werden die menschliche Intelligenz übertreffen, einige sind bereits da. Wie viele von uns können 22.000 Objekte erkennen? Können 100 Sprachen übersetzen?

Sie fügte hinzu: So wie ein Flugzeug höher fliegt als ein Vogel, aber auf eine völlig andere Weise. Die auf Maschinen basierende Intelligenz wird viele mächtige Dinge tun, aber die menschliche Intelligenz spielt immer noch eine Schlüsselrolle in unserer menschlichen Gesellschaft.

Ihr Punkt ist: Das Übertreffen hat bereits stattgefunden, aber es ist keine Kopie oder ein Ersatz.

Jensen Huang war völlig anders. Er nannte kein Jahr, sondern lehnte die Frage selbst ab.

Wir haben genug allgemeine Intelligenz, um die Technologie in den nächsten Jahren in viele nützliche Anwendungen für die Gesellschaft umzusetzen. Wir tun das bereits heute.

Ich denke, das ist nicht wichtig, denn in diesem Punkt ist es eher eine akademische Frage. Ab jetzt werden wir diese Technologie anwenden, und die Technologie wird immer besser werden.

Er gab nicht eine Vorhersage, sondern den aktuellen Fortschritt: Es ist nicht, dass es in Zukunft nützlich sein wird, sondern es wird bereits jetzt genutzt.

Hintons Antwort war konkreter: Wenn Sie mit einer Maschine eine Debatte führen, wird sie Sie immer besiegen. Ich denke, dies wird innerhalb von 20 Jahren passieren.

Er sagte dies ruhig, aber die Aussage war sehr informativ. Dies ist nicht nur eine Vorhersage, sondern eine Bestätigung: Wir sind auf diesem Weg, es ist nur eine Frage der Geschwindigkeit.

Bill Dally warnte die anderen: Vielleicht ist die Frage selbst falsch.