StartseiteArtikel

Hassabis: ChatGPT hat KI auf den "falschen Weg" gebracht.

字母AI2026-04-10 20:08
Wir haben es nicht einmal ganz klar, was "Zeit" ist.

Wir haben möglicherweise die Chance, Krebs zu heilen, durch einen Chatbot ersetzt.

Dies ist keine Verschwörungstheorie, sondern die eigentliche Logik von Demis Hassabis.

Dieser Nobelpreisträger, CEO von Google DeepMind und Schöpfer von AlphaFold gab bei der Frage nach dem Moment der Veröffentlichung von ChatGPT eine Antwort, die fast als „gegen die Branchenkonvention“ zu bezeichnen ist:

„Wenn es an mir läge, würde ich die KI länger im Labor lassen und mehr Dinge wie AlphaFold machen – vielleicht könnte man damit Krebs heilen.“

Die Realität ist jedoch, dass die Explosion von Produkten wie ChatGPT die gesamte KI-Branche in einen Hochgeschwindigkeitswettlauf gestürzt hat.

Der obige Inhalt stammt aus einem Interview, das von Huge Conversations am 7. April 2026 veröffentlicht wurde. In diesem Gespräch hat Hassabis vier Dinge klar gemacht:

Wo die KI die Welt wirklich verändert

Wie die KI von ihrem ursprünglichen Weg abgewichen ist

Die wirklichen Risiken, die man befürchten sollte

Wie die Menschheit darauf reagieren sollte

Im Folgenden sind die interessantesten Teile dieses Gesprächs.

01 Wo die KI die Welt wirklich verändert, sehen wir es kaum

Wenn man nicht in der Branche tätig ist, hat die Mehrheit der Menschen noch immer das Bild von Chatbots, Schreibassistenten oder Bildgeneratoren, wenn es um KI geht.

Hassabis erwähnte in diesem Interview eine leicht zu übersehende Tatsache: Die wichtigeren Anwendungen der KI finden tatsächlich außerhalb dieser Produkte statt.

Die wirklich wichtigen Veränderungen finden auf einer Ebene statt, die weit von unserem Alltag entfernt ist, im Labor, in Datenbanken und in wissenschaftlichen Problemen, mit denen die meisten Menschen nie in Kontakt gekommen sind.

Das typischste Beispiel ist AlphaFold. Dies ist ein System, das Hassabis mit DeepMind entwickelt hat. Sein Ziel ist es, die endgültige dreidimensionale Struktur eines Proteins nur anhand seiner Aminosäuresequenz vorherzusagen.

Man kann sich das so vorstellen: Die Struktur eines Proteins bestimmt seine Funktion im menschlichen Körper, und die Funktion bestimmt, wie Krankheiten entstehen und wie Medikamente wirken.

Natürlich ist die reale Situation viel komplizierter, und hier werde ich es nicht weiter ausführen.

In der Vergangenheit musste ein Wissenschaftler Jahre lang im Labor experimentieren, um die Struktur eines Proteins zu kennen. Die Kosten beliefen sich leicht auf Hunderttausende von Dollar oder sogar mehr.

Viele Proteine sind so komplex, dass es fast unmöglich ist, ihre Struktur aufzuklären – ich rede ernsthaft, kein Scherz.

Aber AlphaFold hat dies zu einem Rechenproblem gemacht. Wenn man eine Sequenz eingibt, kann man in wenigen Sekunden eine sehr zuverlässige Vorhersage der dreidimensionalen Struktur erhalten.

DeepMind hätte normalerweise wie üblich einen Online-Service anbieten können. Wissenschaftler hätten eine Proteinsequenz eingereicht, das System hätte die Berechnung durchgeführt und das Ergebnis zurückgegeben.

Aber in einer internen Sitzung hat Hassabis plötzlich erkannt, dass es besser wäre, alle bekannten Proteine in der Natur zu berechnen, anstatt nur auf Anfrage zu rechnen.

Also hat DeepMind unter seiner Leitung etwa zwei Milliarden Proteinstrukturen in einem Stapel berechnet und sie kostenlos der ganzen Welt zugänglich gemacht.

In gewisser Weise können wir dies als gemeinnützige Sache betrachten. Denn diese Vorgehensweise bedeutet, dass das Gebiet der Strukturbiologie plötzlich über eine jederzeit nutzbare Infrastruktur verfügt.

Hassabis erklärt, dass heute bereits über drei Millionen Wissenschaftler AlphaFold nutzen. Für viele Forscher ist es nicht nur ein „Werkzeug“, sondern eher eine Standardvoraussetzung.

Bei der Arzneimittelentwicklung hat AlphaFold den Anfang des gesamten Prozesses verändert: Früher mussten die Forscher im Labor wiederholt Fehlversuche machen, aber jetzt werden viele Fehlversuche im Voraus auf den Computer verlagert.

Früher mussten die Forscher zuerst einen möglichen Zielpunkt festlegen und dann ein Molekül entwerfen, das an diesem Protein „haften“ kann. Dieser Prozess hängt von vielen Nassversuchen ab: Man macht ein Molekül, testet es; wenn es nicht stimmt, ändert man es ein wenig und testet es erneut.

Aber seit der Einbindung der KI hat sich diese Logik verändert.

In der von DeepMind gegründeten Arzneimittelgesellschaft Isomorphic Labs wurde dieser Prozess zu einem „Rechenpriorität“-Modell neu organisiert: Die KI erzeugt zuerst im Computer eine Vielzahl von Kandidatenmolekülen, prognostiziert ihre Bindungseffekte an das Zielprotein und überprüft gleichzeitig schnell, ob diese Moleküle andere Proteine im menschlichen Körper versehentlich schädigen könnten und welche Nebenwirkungen sie haben könnten …

Dann passt man die Molekülstruktur basierend auf diesen Rückmeldungen an und beginnt die nächste Suchrunde.

Der gesamte Prozess wird zu einer hochfrequenten iterativen Suche. Die Fehlversuche, die früher im Labor viel Zeit und Ressourcen kosteten, werden jetzt in mehrere Rechenrunden auf dem Computer komprimiert.

Die Nassversuche sind nicht verschwunden, sondern werden nur zum letzten Schritt des Prozesses verlegt: Nur wenige der vielversprechendsten Kandidatenmoleküle werden tatsächlich in die experimentelle Überprüfung aufgenommen.

Der Entwicklungszyklus eines Arzneimittels auf dem traditionellen Weg dauert etwa 10 Jahre, und die Erfolgsrate beträgt nur etwa 10%. Diese rechnergestützte Methode hat zumindest theoretisch die Möglichkeit, beide Zahlen zu verbessern.

Hassabis selbst ist der Meinung, dass ab jetzt fast alle neuen Arzneimittelentwicklungen mehr oder weniger KI nutzen werden.

In seiner Ansicht ist dies die Art und Weise, wie die KI am wahrscheinlichsten die Welt verändern wird. Sie wird nicht in Form eines erfolgreichen Produkts auftauchen, und es wird auch nicht ständig auf dem Handybildschirm darauf hingewiesen, dass sie existiert.

Sie ist eher wie ein unterer Schichtsystem, der, sobald er aufgebaut ist, stumm die Arbeitsweise des gesamten Bereichs verändern wird.

Das heißt, wenn wir uns nur auf Chatbots konzentrieren, sehen wir möglicherweise nur den unwichtigsten Teil der KI.

02 Die KI wird „gedrängt“

Wenn man Hassabis‘ eigene Vorstellung folgt, hätte der Entwicklungspfad der KI anders aussehen können, langsamer und „wissenschaftlicher“.

Er hat in diesem Interview eine eher seltene Stellungnahme abgegeben: Wenn es an ihm läge, würde er die KI 10 oder sogar 20 Jahre länger im Labor lassen und wie ein großes wissenschaftliches Projekt vorantreiben.

Er hat als Referenz CERN (Europäische Organisation für Kernforschung, das weltweit größte Institut für Teilchenphysik) genannt. Man sollte die besten Wissenschaftler der Welt zusammenbringen, die Probleme Schritt für Schritt auflösen und ein ausreichend klares Verständnis für jeden Schlüsselaspekt aufbauen, anstatt in einem unvollständigen Verständnis schnell voranzuschreiten.

Auf diesem Weg ist das Ziel der KI nicht, so schnell wie möglich Produkte zu entwickeln, sondern die grundlegendsten und wichtigsten wissenschaftlichen Probleme zu lösen – AlphaFold ist ein typisches Beispiel für diesen Ansatz.

In seiner Vorstellung können diese „langsame und tiefe“ Durchbrüche dem Menschen im Prozess der Entwicklung zur AGI (Allgemeine Künstliche Intelligenz) kontinuierlich Nutzen bringen.

Aber die Realität ist nicht so.

Hassabis‘ Erklärung ist sehr direkt: Die technologische Entwicklung folgt oft nicht dem erwarteten Pfad.

Einer der Schlüsselpunkte war der Durchbruch bei Sprachmodellen und die explosive Verbreitung von ChatGPT.

Die Sprachfähigkeit war viel einfacher zu lösen, als viele erwartet hatten. Ein Architektur wie Transformer zusammen mit einigen Verstärkungslernmethoden reicht aus, um dem Modell eine erstaunliche Fähigkeit in Sprache, Konzepten und abstrakten Ausdrücken zu verleihen.

ChatGPT war zunächst nur ein Forschungsversuch, aber sobald es veröffentlicht wurde, wurde es schnell zu einem globalen Produkt.

Es hat das Tempo der gesamten Branche verändert und die KI zu einem heftigen Wettlauf gemacht.

Viele Benutzer haben jetzt direkt Zugang zu den neuesten KI-Fähigkeiten, und der Fokus des Marktes hat sich von den langfristigen Problemen im Labor auf die schnell umsetzbaren Produktformen verlagert.

Der kommerzielle Wettlauf hat sich beschleunigt. Die Unternehmen müssen öfter neue Modelle veröffentlichen, und die Entwicklung der Modellfähigkeiten ist jetzt eng mit dem Benutzerwachstum und der Marktfeedback verbunden.

Hassabis hat diese Beschleunigung nicht völlig abgelehnt. Er hat zugegeben, dass diese Art der Entwicklung auch einige praktische Vorteile bringt: Die Fähigkeiten, die möglicherweise länger brauchen würden, um in die Realität umgesetzt zu werden, können jetzt früher in die reale Welt gelangen.

Die KI, die die meisten Menschen heute nutzen, ist oft nur einige Monate hinter der internen Laborversion zurück – dies war früher fast unvorstellbar. Die umfangreiche reale Nutzung bringt auch reichhaltigere Daten, denn auch die umfassendsten internen Tests können die komplexen Szenarien, die von Millionen von Benutzern verursacht werden, kaum abdecken.

Aber die Vorteile bedeuten nicht, dass der Pfad ideal ist. Es ist eher ein Ergebnis, das von der Realität getrieben wird.

Hassabis‘ Einstellung ist eigentlich klar. Er ist ein Wissenschaftler, aber auch ein Ingenieur. Wir können dies als die Kompromiss eines Idealisten vor der Realität verstehen: Er weiß, was der ideale Pfad ist, aber er akzeptiert auch, dass die Welt nicht nach dem Ideal funktioniert.

Die technologische Entwicklung ist in hohem Maße unvorhersehbar. Sobald in einer Richtung ein Durchbruch erzielt wird, wird er schnell Ressourcen, Kapital und Aufmerksamkeit anziehen.

So werden die Fähigkeiten, die leichter in Produkte umgesetzt werden können, immer stärker hervorgehoben, während die möglicherweise prioritären wissenschaftlichen Probleme vorerst zurückgestellt werden.

Von diesem Blickwinkel aus folgt die KI heute nicht dem „wertvollsten“ Weg, sondern wird von verschiedenen Kräften auf einen schnelleren und unsichereren Pfad gelenkt.

03 Die wirklichen Risiken sind nicht Deepfake, sondern zwei größere Dinge

Die meisten Diskussionen über KI konzentrieren sich auf eine Art von Problemen: Deepfake, Falschinformationen, inhaltliche Unwahrheiten.

Beachten Sie, dass hier von der Mehrheit der Menschen gesprochen wird, nicht von Fachleuten, sondern von jedem normalen Benutzer der KI.

Deepfake ist tatsächlich ein Problem, aber in Hassabis‘ Ansicht ist es nicht diejenige Art von Problem, die man am meisten befürchten sollte.

Er hat in diesem Interview eine sehr klare Reihenfolge angegeben:

Die erste Art von Problem ist das „Menschen“-Problem. Ob Personen oder Länder diese Technologien, die ursprünglich für die wissenschaftliche Forschung, Medizin und Infrastruktur entwickelt wurden, für schädliche Zwecke nutzen werden.

Dieses Risiko ist nicht neu, aber die KI hat seine Skala und Effizienz verändert. Eine Fähigkeit, die ursprünglich nur in einem kleinen Bereich wirksam war, kann, wenn sie vergrößert wird, völlig andere Auswirkungen haben.

Die zweite Art von Problem ist das Problem der KI selbst. Genauer gesagt, ist es die Unsicherheit, die sich aus der Veränderung der KI von einem „Werkzeug“ zu einem System ergibt, das unabhängig Aufgaben ausführen kann.

Hassabis hat erwähnt, dass das heutige System diese Fähigkeit noch nicht hat, aber in den nächsten Jahren, wenn die KI in die sogenannte „agentische“ Phase eintritt (d. h. die Phase, in der sie vollständige Aufgaben autonom ausführen kann), wird das Problem schwieriger werden.

Der Schlüssel liegt nicht darin, ob sie intelligent genug ist, sondern darin, ob wir sicherstellen können, dass sie immer nach dem festgelegten Ziel handelt, keine Regeln umgeht und auch nicht von der ursprünglichen Absicht abweicht.

Dies ist technisch sehr schwierig, denn je intelligenter das System ist, desto mehr Abkürzungen kann es finden, und diese Abkürzungen stimmen möglicherweise nicht mit den ursprünglichen Erwartungen der Designer überein.

Hassabis ist der Meinung, dass diese beiden Arten von Risiken in den nächsten Jahren die Hauptprobleme sind, denen man sich stellen muss.

Im Vergleich dazu sind die momentan am häufigsten diskutierten Deepfake- und Falschinformationen eher „Probleme, die bereits aufgetreten sind“. Sie müssen gelöst werden, und es gibt relativ klare technische Lösungswege, wie z. B. die Markierung von KI-generiertem Inhalt durch ein Wasserzeichensystem: DeepMind hat intern eine ähnliche Technologie (SynthID) entwickelt, um die Herkunft von generiertem Inhalt zu identifizieren und zu verfolgen.

Wenn man die gesamte Risikostruktur als eine Zeitachse betrachtet: Kurzfristig stehen wir vor einer Informationschaos; mittelfristig ist das ernsteres Problem die Unkontrollierbarkeit der Fähigkeiten.

Was die späte Phase betrifft, ist es noch zu früh, darüber zu sprechen (bushi).

In diesem Sinne hat Hassabis darauf hingewiesen: Das, was wirklich beachtet werden sollte, ist nicht, was die KI sagen kann, sondern was sie tun kann.

Wenn die KI von der „Fragebeantwortung“ zur „Aufgabenausführung“ übergeht, ändert sich auch die Natur des Risikos.

Mit anderen Worten, viele der von uns diskutierten Risiken treten nur auf der Informationsebene auf, und das, vor dem wir uns wirklich in Acht nehmen sollten, sind die bevorstehenden „Aktionen“.

Dies klingt wie eine Science-Fiction-Geschichte. Vielleicht haben viele Menschen sich schon vorstellen können, dass eines Tages eine Superintelligenz „Selbstbewusstsein“ entwickelt und dann die Menschen ersetzt oder sogar regiert.

Hassabis selbst hat auch gesagt, dass er viele Science-Fiction-Romane gelesen hat. Sein Lieblingsbuch ist die Culture-Serie von Iain Banks, eine Welt nach der AGI.