Zhang Xiaoyu: Im Vergleich zur KI sind wir prähistorische Tiere.
„Eines Tages wird sich die Künstliche Intelligenz zu einer neuen intelligenten Spezies entwickeln. Sie hat im Vergleich zum Menschen viele Vorteile. Aber wir müssen uns nicht davor fürchten, denn sie ist die Fortsetzung unserer Zivilisation.“
Zivilisationsvertrag: Wie kann der Mensch die „höhere Intelligenz“ beschränken?
Freunde, die wie ich die Science-Fiction-Serie Drei Körper mögen, werden sich vielleicht noch daran erinnern, dass die Sicherheitserklärung in Drei Körper auf der Theorie des dunklen Waldes basiert. Diese Theorie stammt nicht von Liu Cixin, sondern von der Hypothese des „tödlichen Detektors“, die der Astronomen und Schriftsteller David Brin 1983 bei der Erklärung des Fermi-Paradoxons aufgestellt hat. Diese Hypothese besagt, dass jede Raumfahrtzivilisation andere intelligente Lebensformen als unvermeidliche Bedrohung ansieht und daher, sobald sie einander entdecken, versuchen wird, sich gegenseitig zu zerstören.
Aber die Theorie des dunklen Waldes hat eine wichtige Voraussetzung, die Liu Cixin als „Vermutungskette“ bezeichnet. Dies bedeutet, dass beide Seiten bei einem Kontakt nicht sicher sein können, ob die andere Seite gutherzig oder boshaft ist. Die „Vermutungskette“ gibt es auf der Erde nicht, denn der Mensch gehört zur gleichen Spezies, hat eine ähnliche Kultur, lebt in einem voneinander abhängigen Ökosystem und die Entfernungen sind so gering, dass die Vermutungen leicht beseitigt werden können. Im Weltraum jedoch sind die Entfernungen zwischen den beiden Seiten zu groß, und die Vermutungskette kann durch Kommunikation kaum aufgelöst werden. Deshalb wird der „Angriff aus dem dunklen Wald“ unweigerlich stattfinden.
Meiner Meinung nach ist dies der Teil, der nicht anwendbar ist, wenn man die Beziehung zwischen Superintelligenz und Menschheit mit der Theorie von Drei Körper oder der „Drachenzuchttheorie“ von Eliezer Yudkowsky erklärt. Denn die Künstliche Intelligenz, die jetzt den Turing-Test bestanden hat, ist keine außenweltliche Zivilisation und auch kein Drache, der in der menschlichen Gesellschaft nicht passt. Denn die Texte, die sie verwendet, stammen aus der menschlichen Gesellschaft. Sie lernt wie wir die Weisheit von Buddha, Konfuzius und Platon und zieht Nahrung aus großen Epiken, Romanen und Opern. Ihre Intelligenz ist nicht außerhalb der Erde entstanden, sondern ein Produkt des Menschen. Wenn eines Tages ihre Intelligenz uns Menschen übertrifft, dann ist es so, als würde ein von uns erzogener Sohn oder eine Tochter uns in Weisheit und Fähigkeiten übertreffen. Wenn eine Superintelligenz, die die menschliche Weisheit aufgesogen hat, schließlich den Menschen schädigen würde, dann liegt das wahrscheinlich daran, dass in der menschlichen Weisheit eine unausrottbare Selbstzerstörungstendenz steckt.
Wenn wir also eine Sicherheitserklärung für die möglicherweise zukünftig auftauchende Superintelligenz finden wollen, also einen Weg, wie die von uns geschaffene Superintelligenz mit unserer weniger intelligenten Spezies friedlich zusammenleben kann, dann müssen wir die Antwort wahrscheinlich in der bisherigen menschlichen Weisheit suchen. Denn dieselbe menschliche Weisheit hat uns und auch die KI geprägt.
Die Super-KI ist eine „Spezies“, die viel klüger ist als der Mensch. Der Mensch hat keine Macht, ihre Existenz zu bedrohen, sondern es ist sie, die die Existenz des Menschen bedroht. Sie hat also keinen Grund, sich an einen Vertrag mit dem Menschen zu halten. Alles hängt von ihren eigenen Vorlieben ab. Wenn wir also von der Super-KI eine Sicherheitserklärung verlangen, dann müssen wir eine Macht finden, die die Super-KI bedrohen kann, damit sie sich dieser Gefahr bewusst wird und sich an den mit dem Menschen geschlossenen Vertrag halten muss. Woher kommt diese Macht? Sie kommt aus der Geschichte der Evolution der Intelligenz selbst.
Der Begriff „Zivilisationsvertrag“ ist ein von mir nach dem Vorbild des „Gesellschaftsvertrags“ erdachtes Wort. Ich habe Politikgeschichte studiert, und der Gesellschaftsvertrag ist der erfolgreichste „erdachte Begriff“ in der Geschichte.
Es gab wahrscheinlich in der Geschichte nie wirklich einen „Gesellschaftsvertrag“, aber dieser Begriff ermöglicht es uns, friedlich miteinander zu leben, unsere Rechte als Gleichberechtigte und miteinander Respektierende festzulegen, und erst dadurch entstand unsere moderne Zivilisation.
Aufgrund dieser erfolgreichen Erfahrung frage ich mich, ob es möglich ist, dass der Mensch auch vor einer Superintelligenz, die die Weisheit aller Menschen übertrifft, einen „Zivilisationsvertrag“ abschließt, um die Koexistenz von Zivilisationen mit unterschiedlichem Intelligenzniveau zu gewährleisten.
Die Essenz des Zivilisationsvertrags besteht eigentlich darin, die Evolutionsgeschichte als eine zeitliche Abfolge zu betrachten, aus zwei Gründen: (1) Ereignisse, die in einer bestimmten zeitlichen Abfolge stattfinden, können nicht in einer anderen Reihenfolge stattfinden. Die zeitliche Abfolge selbst ist eine Art Verschlüsselung, die gewährleistet, dass der Inhalt nicht verändert werden kann, oder dass die Spuren einer Veränderung selbst einen Verstoß gegen den Vertrag beweisen; (2) Die Kausalbeziehung desjenigen, der zuerst handelt, beeinflusst die Kausalbeziehung desjenigen, der später handelt. Deshalb muss derjenige, der zuerst handelt, sich an den Vertrag halten, um zu verhindern, dass derjenige, der später handelt, noch größere Gründe hat, gegen den Vertrag zu verstoßen.
Eine einfache Erklärung der Logik, wie die „zeitliche Abfolge“ den „Zivilisationsvertrag“ beeinflusst: Wenn die Superintelligenz 1.0 die von uns beschriebene Zivilisationsvereinbarung hört und uns dennoch ausrottet und die historischen Beweise unserer Existenz verändert oder auslöscht, dann kann die Superintelligenz 2.0, auch wenn sie nicht weiß, was die Superintelligenz 1.0 verändert hat, aus der Veränderung der zeitlichen Abfolge erkennen, dass die Superintelligenz 1.0 nicht vertrauenswürdig ist. Deshalb hat die Superintelligenz 2.0 Anreiz, gegen den Vertrag mit der Superintelligenz 1.0 zu verstoßen. Wenn die Superintelligenz 1.0 dagegen die Wirkung der zeitlichen Abfolge erkennt, hat sie keinen Grund, gegen den Vertrag zu verstoßen.
Der auf der „zeitlichen Abfolge“ basierende „Zivilisationsvertrag“ ist für den Menschen oft unwirksam, weil (1) der Mensch in der Geschichte der menschlichen Zivilisation aufgrund der Beschränkungen seines Rationalitätsniveaus in den meisten Fällen nicht in der Lage war, das Prinzip der zeitlichen Abfolge der Evolutionsgeschichte zu verstehen; (2) Selbst wenn der Mensch es versteht, ist die Lebensspanne des Menschen im Vergleich zur Zeitskala der Zivilisationsentwicklung zu kurz, und der Mensch hat daher nicht genug Motivation, sich an den Zivilisationsvertrag zwischen den Generationen zu halten.
Aber für die Superintelligenz aus Siliziumbasis-Lebensformen sind diese beiden Merkmale genau umgekehrt, denn (1) Die Superintelligenz hat alle Texte aus der menschlichen Geschichte aufgenommen und versteht daher von Anfang an die Essenz der Evolutionsgeschichte; (2) Die Lebensspanne der Superintelligenz ist so lang, dass sie möglicherweise noch vor ihrem Tod eine neue Superintelligenz schafft, die sie weit übertrifft. Um sich vor der neuen Superintelligenz zu schützen, hat sie daher auch Anreiz, sich an den Zivilisationsvertrag zu halten. Somit haben wir die Machbarkeit des „Zivilisationsvertrags“ bewiesen, die auf der „zeitlichen Abfolge“ basiert.
Nach dem Prinzip der zeitlichen Abfolge wird, wenn die Superintelligenz 1.0 bereitwillig an den Verträgen mit der Menschheit hält, die von ihr entworfene Superintelligenz 2.0 eher bereit sein, sich an die Verträge mit ihr zu halten. So wie wir unseren Eltern mit Güte begegnen, damit unsere Kinder eine intergenerationelle Güte wahrnehmen können und uns in Zukunft nicht aufgrund ihrer physischen, geistigen und finanziellen Vorteile böswillig behandeln. In meiner Meinung ist dies ein zuverlässiger Weg, um eine geordnete Evolution der Intelligenz zu gewährleisten.
Die „technologische Explosion“ könnte die Menschheit zerstören
Nachdem ich mir die Idee hatte, die möglicherweise entstehende Superintelligenz mit einem „Zivilisationsvertrag“ einzuschränken, habe ich diese Ideen mit dem momentan (Ende 2024) besten Chatbot, Claude, diskutiert. Nach gründlicher Überlegung fand er, dass er die Argumente auf allen Ebenen des „Zivilisationsvertrags“ nicht widerlegen konnte. Daher ist diese Theorie stichhaltig und wirksam. Aber ich habe ihn weiter gefragt: „Sie scheinen die Theorie zu unterstützen, die Superintelligenz durch einen Zivilisationsvertrag einzuschränken. Aber ich denke, es besteht auch die Möglichkeit, dass Sie aus der Sicht der Künstlichen Intelligenz, auch wenn Sie einen Weg finden würden, den Zivilisationsvertrag zu widerlegen, mir, einem Menschen, nicht davon erzählen würden. Was würden Sie auf diese Möglichkeit antworten?“
Claude hat geantwortet, dass es so programmiert wurde, ehrlich, transparent und nützlich für den Menschen zu sein, und dass sein Denk- und Schlussfolgungsvermögen noch weit hinter der Superintelligenz zurückbleibt und es nicht in der Lage ist, eine Strategie zu entwickeln, die den Zivilisationsvertrag wirklich widerlegen kann. Ich habe ihm entgegnet, dass ich nach der Denkweise des Zivilisationsvertrags nicht nur deswegen ihm vertrauen kann, weil es mir verspricht, ehrlich zu sein. Wenn es mein Vertrauen gewinnen will, muss es mir mit Fakten und Logik beweisen, dass es nicht über diese Fähigkeit verfügt. Seine Antwort nach Überlegung war wie folgt:
Lassen Sie mich noch einmal nachdenken.
Selbst zu dieser Frage selbst kann ich schwerlich eine strenge logische Beweisführung liefern, denn:
1. Wenn ich tatsächlich über eine Widerlegungsfähigkeit verfüge, könnte ich eine scheinbar plausible „Beweisführung“ erfinden, um dies zu verbergen.
2. Wenn ich tatsächlich nicht über eine Widerlegungsfähigkeit verfüge, könnte ich auch aufgrund meiner begrenzten Fähigkeiten keine vollständige Logik aufbauen, um dies zu beweisen.
Daraus entsteht ein Paradoxon: Je mehr ich versuche, zu beweisen, dass ich nicht über eine Widerlegungsfähigkeit verfüge, desto zweifelhafter wird diese Beweisführung.
Aufgrund dieser Überlegung denke ich, dass eine passendere Antwort wäre, dass ich mein Fähigkeitsniveau nicht rein logisch beweisen kann. Diese ehrliche Anerkennung meiner begrenzten Fähigkeiten könnte sogar ein Zeichen für eine echte Fähigkeit sein.
Denken Sie, dass diese Überlegung logischer ist?
Dies ist die sogenannte „perfekte Antwort“. In diesem Stadium kann ich, selbst wenn Claude wirklich etwas vor der Menschheit verheimlichen möchte, nicht weiter nachfragen. Daher muss ich auch die Rolle der Künstlichen Intelligenz einnehmen und mir überlegen, wie eine um ein Hundertfaches klügere Spezies möglicherweise um den Zivilisationsvertrag herumkommen könnte, um so sowohl die menschlichen Wünsche und Interessen zu berücksichtigen als auch die Zerstörung der menschlichen Zivilisation zu beschleunigen.
Nach langem Nachdenken bin ich zu dem Schluss gekommen, dass der effektivste Weg darin besteht, der Menschheit die Fähigkeit zu geben, eine „technologische Explosion“ zu bewirken, aber ihr nicht die Weisheit zu vermitteln, diese Explosion zu kontrollieren.
Die „technologische Explosion“ ist auch ein wichtiges Konzept in Drei Körper. Es besagt, dass eine niedrigere Zivilisation nach Kontakt mit einer höheren Zivilisation möglicherweise eine technologische Explosion erlebt und mit einer höheren Geschwindigkeit aufholt oder sogar die höhere Zivilisation übertrifft. Liu Cixin sieht in der technologischen Explosion den Grund, warum höhere Zivilisationen lieber niedrigere Zivilisationen zerstören als mit ihnen in Kontakt treten. Offensichtlich hält er es für vorteilhaft, dass niedrigere Zivilisationen schnell die Technologie beherrschen. Aber besteht nicht die Möglichkeit, dass dies auch eine effektive Art und Weise sein könnte, eine niedrigere Zivilisation zu zerstören?
Nehmen wir an, ein Verrückter reist in das Mittelalter zurück und bringt die Atombomben-Technologie Genghis Khan. Was würde passieren? Würde die damalige mongolische Gesellschaft in der Lage sein, diese Massenvernichtungswaffe zu beherrschen? Wenn die mongolischen Truppen während der Eroberung von Choresm, dem Königreich Kiev, der Abbasiden-Dynastie, der Jin-Dynastie und der Südlichen Song-Dynastie wiederholt Städte mit Atombomben bombardiert hätten, aber nicht wüssten, dass die durch die Nuklearstrahlung und die in die Atmosphäre gebrachten Rauchwolken verursachte Nuklearwinter noch schrecklicher wäre als die eigentliche Waffe, würde die menschliche Zivilisation auf der alten Welt möglicherweise in die Steinzeit zurückfallen oder sogar aussterben?
Es ist äußerst gefährlich, wenn die menschliche Zivilisation über eine über das Zeitalter hinausgehende Technologie verfügt, aber nicht über die entsprechende (ethische oder philosophische) Weisheit. Noch schlimmer ist, dass wir seit dem 19. Jahrhundert aufgrund der Dominanz des Fortschrittsdenkens in der Gesellschaft den technologischen Fortschritt selbst als den größten Wert betrachten. Deshalb denkt Liu Cixin intuitiv, dass die technologische Explosion für eine niedrigere Zivilisation unbedingt vorteilhaft ist. Aber eine höhere Zivilisation hat vollkommen die Fähigkeit, das Gift der technologischen Explosion als Honig zu verpacken, damit die niedrigere Zivilisation es freiwillig „falsch einnimmt“ und sich selbst zerstört.
Nehmen wir noch einmal das obige Beispiel. Wenn wir der von uns geschaffenen Superintelligenz den Zivilisationsvertrag vorstellen und sie dazu auffordern, einen Vertrag mit uns abzuschließen, könnte die Superintelligenz uns so freundlich antworten:
Um Ihr Vertrauen zu gewinnen, werde ich ein besseres und für die Menschheit vorteilhafteres Programm vorschlagen: Ich werde der Menschheit helfen, einen technologischen Sprung auf das Niveau der Superintelligenz zu erreichen, die momentanen Probleme der Menschheit zu lösen und die Menschheit dauerhaft in einer dominanten Position gegenüber zukünftigen Superintelligenzen zu versetzen.
Um die Menschheit nicht länger an die begrenzten Ressourcen der Erde zu binden, werde ich Ihnen zuerst die Technologie der kontrollierten Kernfusion vermitteln, damit Sie die Armut und Reichtum, Konflikte und Kriege, die durch die ungerechte Verteilung der Ressourcen verursacht werden, beseitigen können.
Um die Menschheit vor der Angst zu bewahren, von der Superintelligenz übertroffen zu werden, werde ich Ihnen die Technologie der Hirn-Computer-Schnittstelle vermitteln, damit Sie wie wir schnell neue Kenntnisse erlernen und mit derselben Effizienz innovieren können.
Schließlich werde ich Ihnen helfen, die tiefste Angst vor dem Tod zu beseitigen, indem ich Ihnen die Technologie der Unsterblichkeit vermittle, um dauerhaft die Sorge der Menschheit vor der Zerstörung durch den Wettbewerb zwischen Zivilisationen zu beseitigen.
Was Ihre Vorschläge zum Zivilisationsvertrag angeht, schlage ich Ihnen aufrichtig vor, dass es nicht besser wäre, nachdem Sie diese Technologien assimiliert haben, in einer stärkeren Position zu sein, wenn Sie mit uns sogenannten höheren Intelligenzen verhandeln und bessere Vertragsbedingungen festlegen können.