Nature veröffentlicht eine wichtige Studie: Die Kombination von Deep Learning und Symbolischem Lernen ist der einzige Weg zu AGI.
Wenn wir an die Vergangenheit denken, war die symbolische KI einst die Herrin des Spiels, die mit Regeln und Logik die Welt der KI beherrschte. Jetzt kehrt sie zurück, zusammen mit neuronalen Netzen, und zielt direkt auf die AGI!
In den letzten Jahren hat uns die Large Language Model (LLM) immer wieder beeindruckt: Sie kann wie ein echter Mensch chatten, wie ein Experte schreiben und wie ein Meister malen. Es scheint, als ob die "allmächtige KI" tatsächlich auf dem Weg wäre.
Aber die Experten auf dem Gebiet der KI haben bereits einen Eimer kalten Wassers über uns geschüttet:
Allein mit "neuronalen Netzen" reicht es bei weitem nicht, um menschliche Intelligenz zu erreichen.
Die American Association for Artificial Intelligence (AAAI) hat ihre Mitglieder gefragt:
- Können Computer in Zukunft die menschliche Intelligenz erreichen oder sogar übertreffen?
- Wenn ja, reicht allein das derzeit so beliebte neuronale Netz?
Die überwiegende Mehrheit der Forscher hat geantwortet - nein.
Der echte Durchbruch wird wahrscheinlich von der alten Stärke, der "symbolischen KI", zusammen mit neuronalen Netzen herbeigeführt.
Symbolische KI: Wiederauferstehung
In der Geschichte war die symbolische KI die Hauptfigur - sie glaubte, dass die Welt vollständig durch Regeln, Logik und klare konzeptionelle Beziehungen beschrieben werden könnte:
Genau wie in der Mathematik, nachvollziehbar wie in einem Flussdiagramm und strukturiert wie in der biologischen Klassifikation.
Später stieg die Macht der neuronalen Netze auf, die das gesamte Gebiet mit ihrem Paradigma des "Lernens aus Daten" eroberten.
Large Language Model (LLM) und ChatGPT wurden zu den technologischen Totemen dieser Zeit, während das symbolische System in den Hintergrund gerückt wurde und fast nur noch als ein Abschnitt in Lehrbüchern übrig blieb.
Allerdings hat sich seit etwa 2021 die "Fusion von neuronalen Netzen und Symbolik" rasant entwickelt und wird als ein Gegenangriff gegen die Alleinherrschaft der reinen neuronalen Netze angesehen:
Sie versucht, statistisches Lernen und explizites Schließen zu verbinden, nicht nur um das ferne Ziel der allgemeinen Intelligenz zu verfolgen, sondern auch um in militärischen, medizinischen und anderen hochrisikoreichen Szenarien eine Form der KI bereitzustellen, die für Menschen "verständlich und nachvollziehbar" bleibt.
Derzeit sind bereits einige repräsentative neuro - symbolische KI - Systeme auf den Markt gekommen.
Zum Beispiel kann AlphaGeometry, das von DeepMind letztes Jahr veröffentlicht wurde, stabil Mathematik - Olympiade - Aufgaben für gute Mittelschüler lösen.
Aber es ist immer noch äußerst schwierig, neuronale Netze und symbolische KI wirklich zu einer allgemeinen "allmächtigen KI" zu fusionieren. Ein solches System ist so komplex, dass William Regli, ein Informatiker der Universität von Maryland, sagte:
Tatsächlich entwirfst du hier die Architektur eines "zweiköpfigen Monsters".
Bittere Lehren, endlose Debatten
Im Jahr 2019 veröffentlichte der Informatiker Richard Sutton den Kurzaufsatz "The Bitter Lesson".
Er stellte fest, dass seit den 1950er Jahren immer wieder die Annahme aufgestellt wurde:
In allen Bereichen, von der Physik bis zum sozialen Verhalten, fassen Menschen die Regeln der Welt zusammen und übertragen sie dann auf Computer.
Dies ist die beste Methode, um intelligente Computer zu bauen.
Sutton schrieb, dass die "bittere Pille", die wir schlucken müssen, darin besteht, dass Systeme, die "Suche und Lernen" mithilfe von riesigen Mengen an Rohdaten und erhöhter Rechenleistung ankurbeln, immer wieder die symbolischen Methoden besiegen.
Beispielsweise waren frühe Schachcomputer auf von Menschen entworfene Strategien angewiesen, wurden aber von Systemen geschlagen, die einfach nur mit einer großen Menge an Spiel - Daten gefüttert wurden.
Die Anhänger der neuronalen Netze zitieren diese Lehre häufig, um die Ansicht zu stützen, dass "immer größere Systeme der beste Weg zur AGI sind".
Aber viele Forscher halten diesen Kurzaufsatz für übertrieben und unterschätzen die entscheidende Rolle, die symbolische Systeme in der KI spielen können und tatsächlich spielen.
Beispielsweise kombiniert das derzeit stärkste Schachprogramm Stockfish neuronale Netze mit einem symbolischen Baum (symbolic tree) der zulässigen Züge.
Neuronale Netze und symbolische Algorithmen haben jeweils Vor - und Nachteile.
- Neuronale Netze bestehen aus mehreren Schichten von Knoten, die durch gewichtete Verbindungen im Trainingsverlauf angepasst werden, um Muster zu erkennen und aus Daten zu lernen. Sie sind schnell und kreativ, neigen aber auch dazu, Dinge zu erfinden (d.h. Halluzinationen zu erzeugen). Und wenn die Frage außerhalb des Trainingsdatensatzes liegt, können sie nicht zuverlässig antworten.
- Symbolische Systeme haben Schwierigkeiten, "unscharfe" Begriffe wie die menschliche Sprache zu erfassen, da dies die Erstellung einer riesigen Datenbank von Regeln erfordert, was schwierig und die Suche langsam macht. Aber ihre Funktionsweise ist klar, sie sind gut im Schließen und können logische Allgemeinwissen auf neue Situationen anwenden.
Wenn auf die reale Welt angewendet, begehen neuronale Netze ohne symbolisches Wissen typische triviale Fehler.
Beispielsweise kann ein von KI generiertes Bild eine Person mit sechs Fingern an jeder Hand zeigen, weil sie das allgemeine Konzept (general concept) "eine Hand hat normalerweise fünf Finger" nicht gelernt haben.
Einige Forscher schieben diese Fehler auf fehlende Daten oder Rechenleistung.
Aber andere halten diese Fehler für einen Beweis dafür, dass neuronale Netze in Bezug auf das Verallgemeinern von Wissen (generalize knowledge) und logisches Schließen (reason logically) grundsätzlich unfähig sind.
Viele halten die Kombination von "neuronalen Netzen + symbolischem Mechanismus" für die beste - vielleicht sogar die einzige - Methode, um der KI logisches Schließen zu verleihen.
Beispielsweise setzt der globale Technologiekonzern IBM auf neuro - symbolische Techniken (neurosymbolic techniques) als Weg zur AGI.
Aber andere bleiben skeptisch: Yann LeCun, einer der Väter der modernen KI, hat einmal gesagt, dass die neuro - symbolische Methode "inkompatibel" mit dem Deep - Learning - Mechanismus sei.
Richard Sutton hält an seiner ursprünglichen Meinung fest und sagte der Zeitschrift "Nature":
Die "bittere Lehre" gilt auch für die heutige KI.
Richard Sutton ist derzeit Professor für Informatik an der Universität von Alberta und gewann 2024 den Turing - Award. Von 2017 bis 2023 war er ein herausragender Forschungsingenieur bei DeepMind.
Er sagte, dass dies zeige, dass "das Hinzufügen von symbolischen, mehr manuell erstellten (manually crafted) Elementen möglicherweise ein Fehler sei".
Gary Marcus ist ein KI - Unternehmer, Schriftsteller und Kognitionswissenschaftler und einer der offensten Anhänger der neuro - symbolischen KI.
Er neigt dazu, diese Meinungsverschiedenheit als einen philosophischen Kampf zu beschreiben und glaubt, dass sich die Lage zugunsten seiner Ansicht entwickelt.
Andere, wie die Robotikerin Leslie Kaelbling von MIT, halten es für "selbstgemachtes Leid", darüber zu streiten, welche Ansicht richtig ist. Man sollte sich stattdessen auf alles konzentrieren, was funktioniert.
Sie sagte: "Ich bin wie ein Elster. Ich nehme jede Methode an, solange sie meinen Roboter verbessert."
Zweiköpfiges Monster: Stärken nutzen, Schwächen ausgleichen
Obwohl die zentrale Vision der neuro - symbolischen KI sehr klar ist - nämlich die Stärken von neuronalen Netzen und der symbolischen Schule zu kombinieren - ist ihre genaue Definition derzeit noch etwas unscharf.
Marcus sagte direkt, dass die neuro - symbolische KI ein "unendliches Universum" umfasst und dass unsere gegenwärtigen Erkundungen "nur ein Tropfen im Ozean" sind.