StartseiteArtikel

Kann die AI-Halluzination gelöst werden?

中欧国际工商学院2026-05-08 09:55
Was sollen wir tun, wenn KI "ernsthaft Unsinn erzählt"?

In jüngster Zeit hat das Startup Axiom die gesamte Silicon Valley AI - Szene erschüttert und auch die Technologiebranche auf sich aufmerksam gemacht. Unter der Leitung der 25 - jährigen jungen Frau Hong Letong aus Guangdong, China, hat diese Firma, die erst seit weniger als zwei Jahren besteht und ein Team von nur etwa 20 Personen hat, sich auf dem eher unbekannten Gebiet der Lösung von AI - Halluzinationen einen Weg gebahnt und 200 Millionen US - Dollar in der Serie - A - Finanzierung erhalten. Dadurch ist sie plötzlich zu einem Unicorn mit einem Schätzwert von 1,6 Milliarden US - Dollar geworden.

Dies ist nicht nur eine aufmunternde Gründungsgeschichte, sondern berührt auch das empfindlichste Thema in der gegenwärtigen AI - Branche. Während alle auf dem Gebiet der Anwendungen von großen AI - Modellen eifrig vorankommen, wird die "AI - Halluzination", die im Hintergrund lauert und leicht katastrophale Folgen haben kann, oft bewusst ignoriert. Professor Tan Yinliang für Entscheidungsforschung und Managementinformationssysteme an der China Europe International Business School (CEIBS) hat die Entstehungsmechanismen der AI - Halluzination und praktikable Lösungsansätze tiefgehend analysiert.

Während die gesamte AI - Branche wild danach strebt, immer größere Parameter - Modelle und realistischere Generierungsfähigkeiten zu entwickeln, hat Hong Letong und ihr Startup Axiom sich für die am wenigsten beliebte und schwierigste Aufgabe in der AI - Szene entschieden - die Lösung von AI - Halluzinationen.

Die Methode, die Axiom anwendet, heißt "formale Verifikation". Vereinfacht gesagt, soll der unscharfe, probabilistische Ableitungsprozess der AI in einen deterministischen Prozess umgewandelt werden, bei dem jeder Schritt mit Mathematik und Logik überprüft, bewiesen und in Bezug auf Verantwortlichkeit nachvollzogen werden kann.

Aber um wirklich zu verstehen, warum Axiom so beliebt ist, muss man zuerst eine Erkenntnis entwickeln: AI - Halluzinationen sind nicht einfach ein "Mangel", sondern ein "Merkmal".

Die richtige Wahrnehmung von AI - Halluzinationen

Viele Menschen denken, wenn sie sehen, dass ein großes Sprachmodell "ernsthaft Unsinn erzählt", dass die AI nicht gut funktioniert, der Algorithmus fehlerhaft ist oder die Trainingsdaten nicht ausreichen. Tatsächlich sind AI - Halluzinationen ein unvermeidliches Ergebnis des aktuellen Arbeitsmechanismus von AI - Modellen. Man könnte sogar sagen, dass sie die Quelle der "Kreativität" sind.

Wir können uns zuerst uns Menschen selbst ansehen. Es gibt ein sehr klassisches Bild über optische Täuschungen, das Schachbrett - Schatten - Illusion: Im Schatten eines grünen Zylinders sind auf dem Schachbrett die Felder A und B markiert. Die Frage ist, welches der Hintergrundfarben von A und B dunkler ist?

Die meisten Menschen sind beim ersten Blick überzeugt, dass A, das sich im hellen Bereich befindet, dunkelgrau ist, während B, das sich im Schatten befindet, hellgrau ist. Aber wenn Sie mit einem Farbwähler auf Ihrem Computer die physikalischen Pixel extrahieren, werden Sie überrascht feststellen: A und B sind absolut identisch grau.

Unter dem Einfluss des Schattens des grünen Zylinders und der umgebenden schwarzen und weißen Schachbrettfelder täuscht unser Gehirn uns und "stur" verarbeitet es die Informationen nach unseren Lebenserfahrungen. Die optische Täuschung bleibt, egal wie nah Sie hinkucken.

Warum haben Menschen diese "Halluzinationen"? Tatsächlich ist unser Gehirn ein äußerst fortschrittlicher "Prognosemacher". Beim Verarbeiten von visuellen Informationen nimmt das Gehirn nicht wie eine Kamera stumpf die Pixel auf, sondern es füllt automatisch Lücken aus und "konstruiert" die logischste Realität anhand der umgebenden Lichtverhältnisse, des Kontexts und der historischen Erfahrungen.

In 99 % der Fälle hilft uns diese "Lückenfüllung" des Gehirns, die dreidimensionale Welt schnell zu verstehen. Aber in 1 % der speziellen Bilder trifft das Gehirn die falsche Entscheidung, und so entstehen optische Halluzinationen.

Der Arbeitsmechanismus von AI - Modellen ist erstaunlich ähnlich dem Prognoseverfahren unseres Gehirns. Im Wesentlichen handelt es sich um eine "probabilistische Black - Box". Die AI lernt anhand von riesigen Datenmengen die statistischen Muster der menschlichen Sprache. Die Kernaufgabe besteht immer darin, anhand des Kontexts das nächste am wahrscheinlichsten auftretende Token vorherzusagen.

Die AI generiert Texte "nach dem Strom der Dinge". Wenn die gestellte Frage stark mit den Trainingsdaten verknüpft ist, kann sie beeindruckende richtige Antworten liefern. Wenn es jedoch Lücken gibt, treibt ihr Mechanismus sie dazu an, nach Wahrscheinlichkeiten einen scheinbar logischsten Satz zu "finden", was dazu führt, dass die AI "überzeugt" Informationen erfindet.

Deshalb ist die Entstehung von AI - Halluzinationen genauso natürlich wie das Fehlurteil der Farben von A und B im Schatten bei uns Menschen. Es ist ein natürlicher, grundlegender Arbeitsmechanismus.

Viele Spitzen - AI - Forscher haben ähnliche Ansichten zu diesem Punkt. Der ehemalige Mitbegründer von OpenAI, Andrej Karpathy, hat eine sehr interessante These aufgestellt: Wir sollten große Sprachmodelle nicht als absolut exakte Suchmaschinen oder Wissensdatenbanken betrachten, sondern eher als "Traumfabrikanten".

Nach seiner Meinung träumen die großen Modelle im Wesentlichen. Wenn wir einen Prompt eingeben, lenken wir eigentlich ihren Traumverlauf. Die sogenannten "Halluzinationen" sind nicht zufällige Fehler im normalen Betrieb des Modells, sondern der Standardzustand.

Wenn der "Traum" des großen Modells mit der Realität übereinstimmt, nennen wir es eine "richtige Antwort". Wenn sein "Traum" von den Tatsachen abweicht und es einfach nach den Sprachwahrscheinlichkeiten weiterläuft, nennen wir es "Halluzination".

Genau wegen dieser auf Wahrscheinlichkeiten basierenden "Lückenfüllung" können AI - Modelle Gedichte im Stil von Shakespeare schreiben und uns bei der Erstellung von Science - Fiction - Geschichten helfen. Wenn wir die Halluzinationen vollständig eliminieren und von der AI verlangen, dass sie 100 % auf bestehenden Fakten basierte Antworten liefert, verliert sie auch ihre Kreativität, Generalisierungsfähigkeit und "menschliche Intuition" und wird zu einer starren traditionellen Datenbank.

Die Notwendigkeit der Lösung von AI - Halluzinationen

Wenn Halluzinationen ein Merkmal der AI und die Quelle der Kreativität sind, warum bemüht sich die gesamte Branche so eifrig, sie zu lösen?

Wenn die AI nur mit Menschen plaudert, Artikel schreibt oder Emojis erstellt, ist es kein Problem, wenn Halluzinationen auftreten. Aber wenn die AI für Finanztransaktionen, autonomes Fahren, medizinische Entscheidungen oder die Entwurf von hochpräzisen Halbleiterchips eingesetzt wird, ist die Fehlerquote fast Null.

Das Gefährlichste an AI - Halluzinationen ist, dass sie Fehler mit flüssigem, vollständigem und sogar autoritativem Sprachgebrauch als scheinbar abgeschlossene Schlussfolgerungen verpacken.

Für Experten kann der Fehler vielleicht noch erkannt werden. Aber für Benutzer, die noch keine professionelle Urteilsfähigkeit entwickelt haben, insbesondere Schüler, junge Berufseinsteiger oder Personen, die die AI in anderen Bereichen einsetzen, sind diese "scheinbar richtigen" Antworten am leichtesten zu akzeptieren.

Dies führt zu einem neuen kognitiven Risiko. Früher konnten Menschen zumindest die Quelle, die Version und den Kontext von Informationen sehen, wenn sie Recherchen machten. Jetzt wissen wir nicht, welche Teile der von der AI neu strukturierten Antworten aus echten Quellen stammen und welche nur vom Modell anhand von Sprachwahrscheinlichkeiten "erfunden" wurden.

Schüler könnten falsche Erklärungen als Wissensrahmen aufnehmen, junge Berufseinsteiger könnten falsche Vorschläge in ihren Arbeitsablauf einbauen, und normale Benutzer könnten in Fragen wie Recht, Gesundheit und Finanzen falsche Entscheidungen treffen. Dies sind die beunruhigendsten Risiken und Schäden, die von "AI - Halluzinationen" ausgehen.

Dies ist eine unumgängliche Hürde, wenn große Modelle auf höheren Anwendungsniveaus eingesetzt werden. Ein Black - Box - System, das nur Antworten liefert, aber seinen Prozess nicht nachweisen kann, kann schwerlich vertraut werden.

Die Erforschung verschiedener Lösungswege für AI - Halluzinationen

Natürlich bedeutet dies nicht, dass es in der Branche außer der formalen Verifikation von Axiom keine anderen Lösungswege gibt. Zurzeit lösen verschiedene Wege verschiedene Probleme auf verschiedenen Ebenen.

Die erste Kategorie ist "AI - Antworten nachvollziehbar machen". Das bekannteste Beispiel ist RAG (Retrieval - Augmented Generation). Bevor das Modell eine Antwort gibt, sucht es zuerst in Unternehmenswissensdatenbanken, wissenschaftlichen Publikationen, Gesetzen oder Produktunterlagen und generiert dann die Antwort basierend auf den Suchergebnissen. Aber die gesuchten Daten können unvollständig sein, das Modell kann die Daten fehlinterpretieren, und die Zitate können nicht wirklich mit den Schlussfolgerungen übereinstimmen.

Deshalb ist RAG eher wie das Anschließen einer externen Erinnerung an die AI, als dass es den grundlegenden Inferenzmechanismus des Modells ändert.

Die zweite Kategorie ist "AI - Antworten disziplinieren". Beispielsweise kann man das Modell durch Trainings - und Bewertungsmechanismen bestrafen, wenn es falsche Antworten gibt, und belohnen, wenn es bei Unsicherheit sagt "ich weiß nicht", mehr Informationen anfordert oder die Zuverlässigkeit angibt. Aber diese Methode verbessert nur die Ehrlichkeit und die Kalibrierung, und es kann immer noch nicht garantiert werden, dass jede Schlussfolgerung streng bewiesen ist.

Die dritte Kategorie ist "AI - Modelle gegenseitig überprüfen lassen". Zum Beispiel Selbstreflexion, mehrfache Verifikation, Kreuzüberprüfung von mehreren Modellen, Verifier - Modelle, Kritiker - Modelle, Werkzeugaufrufprüfung usw. Aber im Wesentlichen wird damit ein probabilistisches Modell durch ein anderes probabilistisches Modell überprüft, und man kann höchstens die Fehlerrate senken.

Die vierte Kategorie ist "AI an externe Werkzeuge und strukturierte Systeme anschließen". Zum Beispiel Taschenrechner, Datenbanken, Wissensgraphen, Code - Interpreter, Simulationsplattformen, Compiler, Suchmaschinen und Regel - Engines. Man überlässt die numerischen Berechnungen dem Taschenrechner, den Code - Ausführung dem Compiler usw. Dies ist ein sehr praktischer technischer Ansatz und auch die häufigere Richtung bei der Implementierung von großen Unternehmensmodellen in China.

Zusammenfassend lässt sich sagen, dass diese traditionellen Methoden eher wie "Patches" wirken. Die probabilistische Black - Box auf der untersten Ebene besteht weiterhin, und es wird nur das Symptom behandelt, nicht die Ursache. Bislang gibt es keine universelle Lösung, die in allen offenen Szenarien die gleiche Bestimmtheit wie die "formale Verifikation" erreichen kann.

Warum die formale Verifikation?

Der Ansatz von Axiom ist völlig anders. Sie greifen auf die am wenigsten bekannte, aber auch am stärksten fundierte Waffe der Informatik zurück - die formale Verifikation. Das bedeutet, dass jeder Schritt der Ableitung in eine maschinenprüfbare, lückenlose logische Kette geschrieben werden muss.

Dies bedeutet, dass es nicht einfach darum geht, dass die AI weniger falsch sagt, sondern dass man versucht, dass die AI bei wichtigen Fragen "scheinbar richtig" in "bewiesen richtig" umwandelt.

Axiom hat eine magische, selbstverifizierende mathematische Programmiersprache eingeführt - die Lean - Sprache.

Das geniale an diesem System ist, dass man nicht versucht, die "Intuition" und "Kreativität" des großen Modells zu entfernen, sondern dass man diesem "Traumfabrikanten" einen unparteiischen "logischen Richter" zuordnet.

In Axioms System ist das AI - Modell weiterhin für seine Stärken zuständig: für Vermutungen, für die Suche und für die Entstehung von Intuition und Inspiration. Jeder Schritt der Ableitung muss jedoch in der formalen mathematischen Sprache Lean geschrieben werden und an das Hintergrundsystem zur "Nachrechnung" übergeben werden.

Wenn es einen logischen Sprung oder eine Nachlässigkeit in einem Schritt gibt, wird die Verifikationssystem der Lean - Sprache die Ableitung nicht akzeptieren und das große Modell zurückschicken, um die Ableitung neu zu machen. Wenn die Schlussfolgerung aus den Prämissen schrittweise legal abgeleitet wird, hat die Antwort absolute, widerlegbare Bestimmtheit.

Es ist bemerkenswert, dass nicht nur Silicon Valley diesen Weg erkundet. China hat in den letzten Jahren auch begonnen, "verifizierbare AI" als wichtige Richtung für die Zuverlässigkeit von großen Modellen voranzutreiben. Es gibt bereits Teams, die an der automatischen Umwandlung von mathematischen Problemen in natürlicher Sprache in formale Beweis - Code arbeiten und Wettbewerbe durchführen.

Anfang April 2026 hat das AI4Math - Team der Peking Universität ein Framework vorgeschlagen, das aus zwei Agenten besteht: Ein Agent namens Rethlas