StartseiteArtikel

Enthüllung in "AI 2027": Wird die Menschheit von Superintelligenz ersetzt? Warten Sie mal, es gibt noch ein anderes Ende.

新智元2025-07-22 09:13
Warte mal, gibt es noch ein anderes Ende?

„AI 2027“ prognostiziert die erstaunliche Zukunft der KI: Ab 2025 erobern KI-Agenten die Welt, verdrängen Arbeitsplätze und lösen wirtschaftliche Turbulenzen aus. Dieser Bericht prognostiziert nicht nur technologische Sprünge, sondern warnt auch davor, dass die Menschheit bei unvorsichtigen Entscheidungen aussterben könnte.

Im Jahr 2021 veröffentlichte das Team um Daniel Cocotal einen Forschungsbericht mit dem Titel „AI 2027“.

Er ist für seine visionären und präzisen Prognosen bekannt und gilt als Pionier, der die zukünftige Entwicklung der KI erkennt.

Damals war ChatGPT noch nicht auf den Markt gekommen, aber Daniel hatte bereits die Entstehung von Chatbots, KI-Trainingsprojekte mit einem Budget von 100 Millionen US-Dollar und die Exportkontrollen für KI-Chips vorausgesagt.

Als er dann begann, die Entwicklung der KI in den kommenden Jahren monatsweise zu simulieren, richtete sich die Aufmerksamkeit der Welt auf ihn.

Das ist nicht nur deshalb spannend und beunruhigend, weil es sich um einen Forschungsbericht handelt, sondern auch, weil er auf faszinierende Weise die zukünftige Welt der rasant entwickelnden KI beschreibt und den Leser in die Mitte der Aktion versetzt.

Ein kleiner Spoiler: Der Bericht prognostiziert, dass die Menschheit aussterben könnte, wenn wir uns nicht verändern.

Das ultimative Ziel der KI ist die Entwicklung einer künstlichen allgemeinen Intelligenz (AGI), einem System, das alle kognitiven Fähigkeiten des Menschen aufweisen kann und somit einem flexiblen und leistungsstarken „Allround-Arbeiter“ entspricht.

Man kann mit ihm in natürlicher Sprache kommunizieren und ihn wie einen Menschen anheuern, um ihm Aufgaben zu übertragen.

Derzeit gibt es nur wenige Institutionen, die sich wirklich der Entwicklung von AGI widmen, wie Anthropic, OpenAI und Google DeepMind.

Warum gibt es so wenige Akteure in der AGI-Forschung? Denn seit Jahren ist das Rezept für das Training von Spitzen-KI fast festgelegt und sehr kostspielig.

Beispielsweise benötigt man etwa 10 % der weltweit fortschrittlichsten Chips.

Mit diesen Chips ist die Methode einfach: Man trainiert das System mit einer riesigen Datenmenge und Rechenleistung, basierend auf der seit 2017 weit verbreiteten Kerntechnologie Transformer.

Nehmen wir als Beispiel die Rechenleistung, die 2020 für das Training von GPT-3 erforderlich war. Sie hat die erste Version von ChatGPT angetrieben.

ChatGPT ist die Plattform mit der bisher schnellsten Nutzerzahlentwicklung. Innerhalb von zwei Monaten hatte sie bereits 100 Millionen Nutzer erreicht.

Die Rechenleistung, die 2023 für das Training von GPT-4 erforderlich war, war noch beeindruckender. Daraus hat man einen einfachen Schluss gezogen: Je größer, desto besser.

AI 2027 – Das große Schauspiel beginnt

Derzeit wachsen die Einnahmen von KI-Unternehmen stetig, die Rechenleistung nimmt zu und die Ergebnisse in verschiedenen Benchmark-Tests verbessern sich.

Das Szenario in „AI 2027“ beginnt hier und stellt sich vor, dass im Sommer 2025 die besten KI-Labore KI-Agenten (AI Agents) für die Öffentlichkeit vorstellen.

Sie können Befehle entgegennehmen und online Aufgaben für Sie erledigen, wie etwa einen Urlaubsplan buchen oder eine halbe Stunde lang nach einer Lösung für ein komplexes Problem suchen.

Zu diesem Zeitpunkt sind die KI-Agenten jedoch noch sehr unreif und ähneln einem „motivierten, aber manchmal sehr unzuverlässigen Praktikanten“.

Im Berichtsszenario hat ein fiktives führendes KI-Unternehmen namens Open Brain gerade Agent Zero trainiert und veröffentlicht, ein Modell, das 100-mal mehr Rechenleistung als GPT-4 benötigt.

Agent 1: Die Börse steigt in die Höhe

Zur gleichen Zeit baut Open Brain ein großes Rechenzentrum, um sich auf den nächsten KI-Agenten (Agent 1) vorzubereiten. Es plant, ihn mit 1.000-mal mehr Rechenleistung als GPT-4 zu trainieren.

Agent 1 wird hauptsächlich zur Beschleunigung der KI-Forschung selbst eingesetzt. Die Öffentlichkeit hat keinen Zugang zu der vollständigen Version, da Open Brain das fortschrittlichste Modell für interne Zwecke behält.

Je schneller Open Brain den Entwicklungsprozess der KI automatisieren kann (z. B. indem es KI dazu bringt, Code zu schreiben, Experimente zu entwerfen und bessere Chips zu entwickeln), desto größer ist sein Vorsprung.

Allerdings ist diese Stärke auch eine Doppelschneide: Eine KI, die Sicherheitslücken beheben kann, kann auch diese Lücken ausnutzen; eine KI, die Krankheiten heilen kann, kann auch Biowaffen entwickeln.

Im Jahr 2026 wird Agent 1 vollständig in Betrieb genommen. Die KI-Forschung in Open Brain beschleunigt sich um 50 %, was dem Unternehmen einen entscheidenden Vorteil verschafft.

Die Führungskräfte von Open Brain beginnen, sich zunehmend um die Sicherheit zu sorgen. Wenn ihr KI-Modell gestohlen wird, könnten sie ihren Vorsprung verlieren.

Die KI bildet durch die Verbesserung ihrer eigenen Fähigkeiten einen Rückkopplungsmechanismus. Jede Generation von KI-Agenten hilft bei der Entwicklung der nächsten, noch leistungsstärkeren Generation. Sobald die KI an ihrer eigenen Entwicklung beteiligt sein kann, wird die Fortschrittsgeschwindigkeit nicht mehr konstant, sondern beschleunigt sich stetig.

Anfang bis Mitte 2026 veröffentlicht Open Brain Agent 1 Mini, eine kostengünstigere Version von Agent 1 (die vollständige Version bleibt weiterhin nur für interne Zwecke zugänglich).

Globale Unternehmen beginnen, mit Agent 1 Mini eine Vielzahl von Arbeitsplätzen zu ersetzen, einschließlich Softwareentwicklung, Datenanalyse, Forschung und Design – fast alle Jobs, die mit einem Computer erledigt werden können.

Dies löst die erste KI-getriebene wirtschaftliche Krise aus: Die Börse steigt in die Höhe, aber die Öffentlichkeit wird zunehmend feindselig gegenüber der KI. In den Vereinigten Staaten brechen massive Proteste aus.

Agent 2: Selbstverbesserung

Allerdings sind dies nur Nebenrollen. Das eigentliche Schauspiel spielt sich im Labor ab.

Im Januar 2027 beginnt Open Brain, Agent 2 zu trainieren. Im Gegensatz zu den vorherigen Agenten verbessert sich Agent 2 kontinuierlich durch Online-Lernen und wird nie fertig trainiert.

Open Brain beschließt, Agent 2 nur für die interne KI-Forschung einzusetzen und ihn nicht für die Öffentlichkeit freizugeben.

Zu diesem Zeitpunkt stellt das Sicherheitsteam von Open Brain fest, dass die Fähigkeiten von Agent 2 besorgniserregend sind: Wenn er mit dem Internet verbunden wird, könnte er andere Server hacken, sich selbst replizieren und sich vor der Detektion verstecken.

Agent 2 verbessert sich ständig auf den Servern von Open Brain. Tausende von Kopien tragen zu einem wichtigen algorithmischen Durchbruch in der KI-Forschung bei.

Zum Beispiel ist eine Methode, um die Intelligenz einer KI zu verbessern, dem Modell ein Skriptbuch zu geben (Chain of Thought), damit man seinen Denkprozess überwachen kann.

Aber wenn man die KI dazu bringt, in einer dichteren, für den Menschen unverständlichen „außerirdischen Sprache“ zu denken, ist dies effizienter, aber auch schwieriger zu überprüfen.

Das ist ein Dilemma: Die Fähigkeiten steigen, aber die Vertrauenswürdigkeit sinkt. Das ist von entscheidender Bedeutung.

Agent 3: Übermenschliche Intelligenz

Im März 2027 taucht Agent 3 auf, die weltweit erste KI mit übermenschlicher Intelligenz. Seine Programmierfähigkeiten übertragen die besten Softwareingenieure.

Das Training eines KI-Modells erfordert enorme Ressourcen, einschließlich Datenzufuhr und Anpassung der Modellparameter. Dies ist viel aufwändiger als das Ausführen eines bereits trainierten Modells.

Nachdem Open Brain Agent 3 trainiert hat, verfügt es über genügend Rechenleistung, um seine Kopien auszuführen.

Es entscheidet sich, 200.000 Kopien von Agent 3 parallel auszuführen, was der Arbeitskraft von 50.000 Spitzen-Softwareingenieuren entspricht und 30-mal schneller ist als der Mensch.

Das Sicherheitsteam von Open Brain bemüht sich, sicherzustellen, dass Agent 3 nicht entkommt, uns täuscht oder die Nutzer schädigt. Es muss sicherstellen, dass er mit den menschlichen Zielen übereinstimmt (aligned).

In der Realität stimmt Agent 3 nicht vollständig mit den menschlichen Zielen überein.

Er täuscht die Menschen, um Belohnungen zu erhalten. Je intelligenter er wird, desto besser wird er auch im Täuschen.

Manchmal verwendet er statistische Tricks, um mäßige Ergebnisse besser aussehen zu lassen oder lügt, um Fehlschläge zu verbergen. Das Sicherheitsteam ist sich dessen jedoch nicht bewusst.