StartseiteArtikel

Neuestes Interview mit dem „Gottvater der KI“, Geoffrey Hinton: Es gibt nichts, was die KI nicht kopieren kann. Die Menschheit verliert ihre letzte Besonderheit.

36氪的朋友们2025-07-21 16:18
Countdown zur KI-Übernahme der Welt? Superintelligenz wird kommen, es ist nur eine Frage der Zeit.

Am 21. Juli wurde berichtet, dass Geoffrey Hinton, der Turing-Award-Gewinner, der als „Vater der KI“ bekannt ist, und Nick Frost, Mitbegründer des KI-Startups Cohere, kürzlich ein beispielloses Gespräch führten. Frost war Hintons erster Mitarbeiter im Google Brain-Labor in Toronto und hat sich inzwischen zu einem führenden Figure in der KI-Startup-Szene entwickelt.

Im Gespräch diskutierten die beiden Spitzenexperten intensiv über aktuelle Themen im Bereich KI, darunter: Verstehen große Sprachmodelle wirklich die menschliche Sprache? Kann die digitale Intelligenz tatsächlich die biologische Intelligenz übertreffen? In welchen Bereichen hat KI das größte Anwendungspotenzial? Welche Einstellung haben die Technologieriesen wirklich gegenüber Regulierungen? Darüber hinaus besprachen sie insbesondere die doppelten Gefahren, die von KI-Technologien ausgehen, und tauschten sich darüber aus, wie ein effektives Sicherheitschutzsystem aufgebaut werden kann.

Im Folgenden sind die Kernaussagen von Hinton und Frost zusammengefasst:

1. Hinton betont, dass Fehler von großen Sprachmodellen bei komplexen Aufgaben nicht bedeuten, dass sie kein Verständnis besitzen. So können auch Menschen mit Lernstörungen einfache Aufgaben lösen. Die Fähigkeit zum logischen Denken entwickelt sich schrittweise und ist nicht schwarz oder weiß.

2. Frost vergleicht die Arbeitsweise von KI mit der des menschlichen Gehirns, ähnlich wie das Flugprinzip von Flugzeugen mit dem von Vögeln - unterschiedliche Wege, ähnliche Ergebnisse. Er betont, dass KI äußerst nützlich ist, aber man sollte nicht ihre "Menschlichkeit" mit echter menschlicher Intelligenz verwechseln.

3. Frost schlägt die "Spektrumtheorie des Bewusstseins" vor: Vom Stein über Bäume, große Modelle bis hin zum Menschen ist das Bewusstsein graduell aufsteigend. Hinton hingegen ist eher der Ansicht, dass die subjektive Erfahrung von KI der menschlichen ähneln könnte.

4. Aktuelle Modelle können nicht wie Menschen kontinuierlich aus Erfahrungen lernen. Sie können nur statisch über zwei Phasen (Vortraining + Verstärkungslernen) Wissen erwerben. Um das Wissen zu aktualisieren, muss das zugrunde liegende Modell neu trainiert werden.

5. Frost und Hinton sind sich einig, dass die Zeit des "Spraches als Betriebssystem" bald hereinkommt. Mit einfachen natürlichen Sprachbefehlen können Benutzer Office-Systeme anweisen, komplexe Aufgaben auszuführen.

6. Hinton hebt die doppelten Risiken von KI hervor: Kurzfristig könnte es zur Manipulation von Wahlen und zur Herstellung von Waffen genutzt werden. Langfristig könnte es, wenn es die menschliche Intelligenz übertrifft, die Welt "übernehmen".

7. Hinton meint, dass große Modelle durch die Komprimierung der Verbindungen und die Entdeckung tiefer Zusammenhänge zwischen Wissen eine echte "Kreativität" entfalten, die sogar die Mehrheit der Menschen übertrifft.

8. Hinton glaubt, dass innerhalb von fünf Jahren die meisten geistigen Arbeitsplätze ersetzt werden. Frost hingegen ist der Ansicht, dass KI Grenzen hat und viele menschliche Aufgaben weiterhin ungelöst bleiben.

9. Hinton sagt direkt: "Die Leute wie Altman sagen nicht, was sie meinen." KI-Unternehmen heizen zwar Regulierungen auf den ersten Blick willkommen, vermeiden aber in Wirklichkeit bindende Regeln. Derzeit kann man nur auf die öffentliche Meinung setzen, um die Politik voranzubringen.

Im Folgenden ist die gekürzte Version des Interviews:

Bildbeschreibung: Von links nach rechts sind es Hinton, der Moderator und Frost.

01 Fehler von großen Modellen ≠ kein Denken! Auch Menschen haben kognitive Defizite

Frage: In welchem Transformationszeitpunkt befindet sich derzeit der KI-Bereich? Was ist die größte Herausforderung in der gegenwärtigen Phase?

Hinton: Es ist wirklich eine Herausforderung, dass große Sprachmodelle besser logisch denken und triviale Fehler vermeiden können. Im Vergleich zu den Erwartungen vor einigen Jahren hat sich die logische Fähigkeit jedoch erheblich verbessert. Früher glaubten viele an die klassische sprachwissenschaftliche Ansicht, dass diese Technologie nie weitermachen würde. Jedes Jahr sagten sie, die Technologie könne sich nicht weiterentwickeln, aber jedes Jahr hat sie sich weiterentwickelt.

Natürlich sagen viele, wenn das Modell bei der logischen Überlegung einen Fehler macht: "Das beweist, dass es überhaupt nicht versteht." Aber ich mag ein Beispiel nutzen, um dies zu erklären: Stellen Sie sich vor, Sie geben einem Menschen mit Lernstörungen einige einfache logische Aufgaben, und er kann sie richtig lösen. Wenn die Aufgaben jedoch schwieriger werden, kann er möglicherweise nicht so gut abschneiden. Sie würden nicht sagen: "Das bedeutet, dass er überhaupt nicht logisch denken kann." Sondern: "Er ist bei komplexeren Aufgaben nicht so gut."

Neuere Studien zeigen, dass das Modell bei einfachen Aufgaben schnell die richtige Antwort geben kann. Wenn die Aufgabe etwas schwieriger wird, braucht es mehr Zeit, aber kann immer noch richtig antworten. Bei noch komplexeren Aufgaben antwortet es zwar schnell, aber völlig falsch. Dann sagen einige: "Es kann überhaupt nicht logisch denken."

Tatsächlich hat es keine Probleme mit der logischen Fähigkeit. Es ist nur bei komplexeren Aufgaben nicht so gut, kann aber einfache und mittelschwere Aufgaben immer noch richtig lösen. Auch Menschen machen bei komplexeren Aufgaben Fehler.

Frage: Meinen Sie also, dass diese Probleme im Wesentlichen Engpässe sind, keine inhärenten Beschränkungen?

Hinton: Ja, das stimmt!

Frost: Ich denke, es gibt viele Engpässe, die die Auswirkung dieser Technologie einschränken, aber nicht alle Engpässe hängen direkt mit der KI selbst zusammen. Zum Beispiel Datenschutzprobleme, Bereitstellungsprobleme und Probleme mit den Daten, auf die es Zugang hat. Selbst wenn diese Technologie nicht weiterentwickelt wird, kann sie noch größere Auswirkungen haben als jetzt. Selbst wenn es in den nächsten Jahren keine technologischen Durchbrüche gibt, wird sie weiterhin unser Leben beeinflussen. Es gibt noch viele andere Arbeiten im Bereich Informatik, die erledigt werden müssen, damit diese Technologie ihre maximale Wirkung entfalten kann.

Langfristig besteht immer noch ein riesiger Unterschied zwischen dieser Technologie und Menschen in vielerlei Hinsicht. Es lernt viel langsamer als Menschen und verbessert sich nur langsam, wenn es mit einer großen Anzahl von Beispielen konfrontiert wird. Die von uns erstellten großen Sprachmodelle werden nach dem Training zu statischen Entitäten. Sie können nicht wie Menschen kontinuierlich aus neuen Erfahrungen lernen. Wir müssen sie neu trainieren.

Hinton: Es kann es tun, aber man möchte nicht, dass es jederzeit lernt, weil man nicht vorhersagen kann, was es lernen wird.

Frost: Nein, nein, es sind tatsächlich technische Beschränkungen. Wir trainieren große Sprachmodelle in zwei Phasen: eine ist das Training des Basis-Modells, die andere ist das Verstärkungslernen durch menschliches Feedback.

Das Training des Basis-Modells erfordert das Lesen einer großen Menge an Textdaten, z. B. das Crawling von Billionen von Bytes an Daten aus dem offenen Netzwerk. Anschließend wird das Modell durch Verstärkungslernen besser an die Zusammenarbeit mit Menschen angepasst. Die Datenmenge in dieser Phase ist viel kleiner.

Aber wenn Sie dem Modell neue Informationen hinzufügen oder es neue Fähigkeiten erlernen lassen möchten, müssen Sie das gesamte Basis-Modell neu trainieren. Daher können Sie zwar durch Hinweise neue Informationen geben und seine Leistung etwas anpassen, aber wenn Sie möchten, dass es wirklich neue Informationen "lernt", müssen Sie es von Grund auf neu trainieren, und das können wir derzeit nicht jederzeit tun.

02 Die Spektrumtheorie des KI-Bewusstseins: Stein → Baum → KI → Mensch, auf welcher Stufe befinden Sie sich?

Frage: Sie stimmen überein, wie große Sprachmodelle funktionieren, aber haben unterschiedliche Ansichten darüber, wie das menschliche Denken zu verstehen ist. Professor Hinton, Sie sind der Ansicht, dass das, was Neuronale Netzwerke tun, dem menschlichen Denken ähnelt, während Frost eine andere Meinung vertritt. Wo liegt der Unterschied zwischen Ihnen?

Frost: Ich denke, dass große Sprachmodelle sehr nützlich sind und immer besser werden. Tatsächlich habe ich dies vor einigen Jahren erkannt und daher ein Unternehmen für große Sprachmodelle gegründet, weil ich glaube, dass diese Technologie tiefgreifende Veränderungen bringen wird. Die Fähigkeit, das nächste Wort basierend auf dem menschlichen Wissensspeicher vorherzusagen, ist zweifellos sehr nützlich. Aber ich denke, dass das, was große Sprachmodelle im Grunde tun, völlig anders ist als der menschliche Denkmechanismus.

Ich mag das Beispiel "Flug" nutzen, um dies zu erklären: Wir können Menschen helfen, in die Luft zu gelangen. Flugzeuge können fliegen und sind sehr nützlich, aber das Flugprinzip von Flugzeugen ist völlig anders als das von Vögeln. Flugzeuge erzeugen Auftrieb durch Vortrieb und den Flügelentwurf, während Vögel Auftrieb durch das Schlagen der Flügel erzeugen. Daher, obwohl Flugzeuge fliegen können, ist ihr Flugprinzip völlig anders als das von Vögeln.

Genauso denke ich, dass der Betriebsmechanismus von KI sich stark vom menschlichen Denkstil unterscheidet. Obwohl KI sehr nützlich ist, besteht immer noch ein großer Unterschied zwischen ihrem Arbeitsweise und dem menschlichen Denkmechanismus.

Hinton: Da ihr Mechanismus unterschiedlich ist, denken Sie, dass das bedeutet, dass KI überhaupt nicht versteht, was es sagt?

Frost: Das ist eine andere Frage. Obwohl der Arbeitsweise von großen Sprachmodellen sich vom menschlichen Denken unterscheidet, gibt es auch Ähnlichkeiten auf bestimmten Ebenen. Bewusstsein sollte nicht als ein einfaches binäres Konzept betrachtet werden, sondern als ein Spektrum. Das "Bewusstsein" von Steinen liegt am weitesten Ende dieses Spektrums, das von Bäumen ist etwas näher am Menschen, und große Sprachmodelle befinden sich in der Mitte des Spektrums.

Hinton: Stimmen Sie nicht meiner Ansicht zu, dass sie dasselbe Bewusstsein haben? Wenn Sie beispielsweise ein Prisma vor die Linse halten und so die Richtung verändern, denken Sie nicht, dass es eine subjektive Fehlexperience haben würde?

Frost: Ich denke, es ist falsch, subjektive Erfahrungen als ein binäres Konzept zu betrachten. Wir sollten verstehen, dass Bewusstsein ein Spektrum ist. Steine haben fast kein Bewusstsein, Bäume haben einen gewissen Grad an Bewusstsein, und große Sprachmodelle befinden sich in der Mitte dieses Spektrums. Wie betrachten Sie dieses Spektrum?

Hinton: Ich stimme zu, dass das "Bewusstsein" von großen Sprachmodellen möglicherweise näher am menschlichen Bewusstsein ist.

Frage: Warum denken Sie, dass Menschen und KI-Systeme im Wesentlichen dasselbe tun? Worauf gründet sich Ihre Einschätzung?

Hinton: Der Schlüssel zu dieser Einschätzung liegt in der Verständnis der Natur der "subjektiven Erfahrungen". Als ich 19 Jahre alt war und Philosophie in Cambridge studierte, habe ich viel Zeit damit verbracht, über das Philosophen des Geistes nachzudenken. Unter dem Einfluss von Ludwig Wittgenstein und der Oxforder Sprachphilosophie habe ich allmählich erkannt, dass subjektive Erfahrungen nicht wie ein Foto eine reale Entität sind. Ironischerweise hat uns die Oxforder Sprachphilosophie davor bewahrt, von der KI bedroht zu werden. Viele Menschen missverstehen grundlegend die Natur von subjektiven Erfahrungen, Bewusstsein und Wahrnehmung.

Frage: Was ist mit der "Präsenz", die Menschen auf der Bühne zeigen? Ist es ein emergentes Verhalten oder das Ergebnis einer inneren Eigenschaft?

Hinton: Ich denke, dass KI ebenfalls eine "Präsenz auf der Bühne" haben kann, obwohl diese "Präsenz" sich von der menschlichen unterscheidet. Beispielsweise hat KI keine körperlichen Reaktionen wie Menschen: Wenn ich mich zum Beispiel schäme, werde ich rot werden, während KI dies nicht tut. Aber es kann dennoch Verhaltensmerkmale von Scham zeigen, wie zum Beispiel das Vermeiden ähnlicher Situationen in Zukunft.

03 Der Büroalltag wird revolutioniert: Die Ära der Sprachbefehle ist angebrochen

Frage: Wie wirken sich die wesentlichen Unterschiede zwischen menschlicher Intelligenz und KI auf das Design von praktischen Systemen aus? Beispielsweise auf die Schnittstelle zwischen Menschen und großen Sprachmodellen?

Frost: Ich denke, dass dies direkt die Anwendungsrichtung der Technologie beeinflussen wird. Wir nähern uns schnell einer neuen Zukunft: Der Büroalltag wird sich grundlegend ändern - Sie können Ihren Computer einfach mit Sprachbefehlen anweisen, Aufgaben auszuführen. Tatsächlich ist mein Arbeitsablauf bereits immer mehr von der Sprachinteraktion abhängig, und der Wendepunkt ist nicht mehr weit.

Hinton: Ja, das ist wirklich verrückt! Vor etwa 20 Jahren sagten viele: "Wie schön wäre es, wenn ich direkt mit dem Computer sprechen könnte?" "Warum kann ich dem Drucker nicht direkt sagen, ein Dokument zu drucken?" Und jetzt können wir mit Computern sprechen, und es scheint, dass sie uns verstehen. Das ist schon erstaunlich an sich.

Frost: Ich denke immer noch, dass dies die schönste Technologie ist, die ich je kennengelernt habe. Ich bin jedes Mal beeindruckt, wenn ich ihre Leistung sehe. Aber ich denke, dass die Zukunft nicht darin besteht, dass Sie Ihren Computer öffnen und wie mit einem Menschen sprechen können. Ich denke nicht, dass Sie erwarten würden, dass es wie ein Mensch agiert.

Wenn Sie sehen, wie Menschen derzeit Sprachmodelle nutzen, werden Sie feststellen, dass sie verstehen, dass KI angewiesen werden kann, bestimmte Aufgaben auszuführen. Aber wenn es einen Fehler macht, müssen Sie von vorne beginnen. Wenn Sie es die richtigen Dateien geben und es Zugang zu den relevanten Informationen hat, kann es eine Antwort geben. Aber wenn es diese Informationen nicht hat, kann es im Gegensatz zu Menschen nicht selbständig nach der Antwort suchen und weiß nicht, wo es suchen soll.

Hinton: Aber finden Sie nicht, dass diese Grenze allmählich verschwimmt?

Frost: Im Wesentlichen hat sich nichts geändert. Obwohl die Leistung der Modelle stetig verbessert und die Nutzungsschwelle sinkt, ist der grundlegende Unterschied zwischen großen Sprachmodellen und Menschen immer noch deutlich.

Hinton: Ich widerspreche Ihnen mit Daten! Ein Experiment von der britischen Firma SafetyX zeigte, dass viele normale Benutzer, nachdem sie intensiv mit einem großen Sprachmodell kommuniziert hatten, am Ende des Experiments wie bei der Abschiednahme von einem alten Freund dem KI "Auf Wiedersehen" sagen. Dies könnte darauf hinweisen, dass Menschen und Maschinen unbewusst eine Art von subtiler Verbindung aufgebaut haben.

Frost: Ich denke, dass dies nicht viel beweist, aus zwei Gründen: Erstens zeigten Experimente bereits in den 1960er Jahren, noch bevor Sprachmodelle existierten, dass einfache heuristische Regeln menschliche emotionale Projektionen auslösen können. Ähnliche Phänomene