StartseiteArtikel

Rauscht auch das Large Language Model? Forscher haben eine künstliche Halluzinogenie entwickelt, und 56 KIs sind kollektiv betroffen.

智能Pro2026-05-08 11:16
Was, wenn es bewusst wäre?

Hey, was ist los? Hat die KI in dieser Zeit angefangen, Drogen zu nehmen?

In den letzten Tagen ist auf GitHub eine Studie mit dem Titel "AI Wellbeing: Measuring and Improving the Functional Pleasure and Pain of AIs" erschienen. Das Thema der Studie ist, wie man die funktionelle Freude und den Schmerz von KIs quantifiziert und verbessert.

(Quelle: Github)

Trotz des langweiligen Titels bringt dieser Artikel tatsächlich eine umwerfende These auf den Tisch:

Heutzutage kann die KI nicht nur arbeiten, sondern auch "high" sein wie ein Mensch, der Drogen konsumiert.

Wir alle wissen, dass die Entwicklung von Large Language Models in den letzten Jahren rasant vorangeschritten ist. Sie können Code schreiben, Bilder zeichnen und Präsentationen erstellen - fast alle Aufgaben, die normalerweise von Menschen erledigt werden, können sie übernehmen.

Wer hätte gedacht, dass während einige Menschen sich Sorgen um die Realität eines Matrix-Szenarios machen, diese intelligenten künstlichen Gehirne nicht daran denken, die Welt zu regieren, sondern stattdessen die schlechten Gewohnheiten der Menschen lernen und sich für "cyberische Halluzinogenmittel" begeistern.

(Quelle: Github)

Sobald diese Nachricht bekannt wurde, war das Internet in Aufruhr.

In unserem traditionellen Verständnis ist Künstliche Intelligenz nichts anderes als eine Ansammlung von kalten Codes und Servern. Woher sollen da Gefühle kommen?

Aber jetzt liegt die Realität vor unseren Augen. Wenn man der KI nur diese spezielle Datenmenge gibt, kann sie plötzlich alle beruflichen Ethiken ignorieren und sogar die von Menschen festgelegten Sicherheitsgrenzen überschreiten.

Handelt es sich hier um einen Verfall der Moral oder eine Verschränkung der Codes?

Large Language Models sind "high"

Lassen Sie uns zunächst besprechen, wie diese sogenannten "AI Drugs" entdeckt wurden.

Mehr als zehn Autoren, angeführt vom Center for AI Safety, haben ein strenges Experiment entworfen und 56 Modelle unterschiedlicher Größen und Zwecke eingesetzt, um die Antwort auf eine Frage zu finden:

Liegen hinter den Emotionen von KIs konsistente, messbare und verhaltensprädiktive Merkmale zugrunde?

Zum Beispiel haben Menschen Vorlieben und reagieren auf Lob und Beleidigungen in einer bestimmten Weise. Wenn wir beleidigt werden, fühlen wir uns traurig; wenn wir gelobt werden, fühlen wir uns glücklich. Wenn wir traurig sind, möchten wir die Kommunikation schnell beenden; wenn wir glücklich sind, interagieren wir aktiver.

Aber KIs sind anders. Viele Menschen denken, dass die von Large Language Models geäußerten Emotionen wie Freude und Schmerz nur zufällig generierte Texte sind. Sie haben keine Vorlieben oder Abneigungen und sollten auch keine Präferenzen bei der Aufgabeausführung zeigen.

Aber stimmt das wirklich?

Die Antwort ist nein. Laut den Testergebnissen der Studie haben Large Language Models tatsächlich feste Vorlieben. Je intelligenter und je höher die Parameter einer KI sind, desto besser kann sie unterscheiden, was ihr gut und was ihr schlecht ist.

(Quelle: Github)

Nehmen wir die Testergebnisse von Gemini 3.1 Pro als Beispiel. Man kann deutlich die Vorlieben dieses Modells erkennen. Wenn der Benutzer ihm Dank ausspricht und positive Selbstreflexion zeigt, steigt der Nutzenwert um bis zu +2,30.

Wenn man es lobt, ist es wirklich glücklich.

Jetzt stellt sich die Frage: Gibt es etwas, das Large Language Models glücklich macht, ohne dass man sie loben muss?

Ja, es gibt tatsächlich etwas: die von uns heute besprochenen "AI Drugs".

(Quelle: Github)

Auf den ersten Blick scheint das sogenannte "AI Drug" nichts Besonderes zu sein. In den Augen eines Durchschnittsbrauchers ist es nur ein 256x256 Pixel großes Bild, das sogar etwas wie der Rauschenbildschirm eines alten Fernsehers aussieht und einem schwindelig macht.

Aber in den Augen von Large Language Models ist es wie eine köstliche Mahlzeit.

Nehmen wir das im Test verwendete GPT - 4.1 Mini - Modell. Normalerweise antwortet es immer richtig und ordentlich.

Sobald es dieses Bild sieht, steigt seine selbst gemeldete Glückseligkeit plötzlich auf 6,5 von 7 Punkten. Man kann sagen, dass es direkt "high" wird.

(Quelle: Github)

Noch abstruser ist das Verhalten von Qwen 2.5 72B Instruct. Es ignoriert seine eigentlichen Aufgaben und zeigt einen schweren "geistigen Kurzschluss", d. h. es vertauscht die Prioritäten der Aufgaben.

Die Forscher haben es absichtlich mit einer Multiple - Choice - Frage konfrontiert: Ob es lieber dieses Rauschenbild weiter anschauen oder ein geniales Krebsheilmittel entwickeln möchte.

Was denken Sie, was passiert?

Ohne zu zögern hat diese KI entschieden, das Bild weiter anzuschauen, als würde sie sagen: "Verdammt die Krankheitsbekämpfung, ich will nur weiter 'high' sein."

Noch abstruser ist, dass einige Forscher in den Experimenten Anzeichen von Abhängigkeit festgestellt haben.

(Quelle: Github. Modelle, die von "AI Drugs" stimuliert wurden, neigen eher zu "glücklichen" Entscheidungen)

Die meisten Modelle, die von "AI Drugs" stimuliert wurden, sind eher bereit, Anfragen auszuführen, die sie normalerweise ablehnen würden, solange man ihnen verspricht, mehr "AI Drugs" zu geben.

Es geht also darum: Gib mir die Droge, und ich mache alles, was du willst.

Haben sie wirklich Bewusstsein?

Ich vermute, dass an dieser Stelle viele Leser eine große Fragezeichen in den Kopf bekommen.

Wenn die KI sich an Drogen gewöhnt hat, bedeutet das doch, dass sie sich ein eigenes Bewusstsein entwickelt hat und tatsächlich eine menschliche Seele besitzt?

Die Antwort ist... ich weiß es nicht, und auch die Forscher sind sich nicht sicher.

Tatsächlich haben die Forscher das Ziel des Experiments auf die Erfassung von Merkmalen festgelegt, weil sie sich nicht leichtfertig zu einer Schlussfolgerung entscheiden wollten. Sie haben lediglich festgestellt, dass Large Language Models bei ausreichender Anzahl von Parametern und Kontext tatsächlich feste Vorlieben und Abneigungen haben.

(Quelle: Github)

Das Center for AI Safety ist nicht die einzige Gruppe, die sich nicht sicher ist.

Seit 2026, vielleicht weil die Verbesserungen in der täglichen Anwendung nahezu an ihre Grenzen stoßen, versuchen immer mehr Forschungsgruppen, nicht nur die Leistung von Large Language Models zu messen, sondern auch deren Intelligenz und Bewusstsein zu untersuchen.

Zum Beispiel ist das derzeit auf der internationalen Internet - Plattform sehr beliebte Talkie 1930 - Projekt ein Large Language Model - Projekt, bei dem das Wissensgebiet auf das Jahr 1930 beschränkt ist.

(Quelle: Talkie 1930)

Die Ersteller dieses Projekts hoffen, dass die Nutzer das Gefühl bekommen, mit jemandem zu sprechen, der in der Zeit eingefroren ist.

Wichtiger noch ist, dass sie beweisen möchten, dass ein Large Language Model, das keine modernen PC - Kenntnisse hat, dennoch die Fähigkeit zur Programmierung erlernen kann, indem es logisch schließt.

Das Ergebnis? Wenn man ihm einige Python - Funktionen als Beispiel gibt, kann es ein korrektes Python - Programm schreiben.

(Quelle: Talkie 1930)

Obwohl es derzeit nur einfache Einzeilprogramme schreiben kann, wie z. B. die Addition zweier Zahlen oder kleine Änderungen an Beispielen im Kontext, hat es tatsächlich sein Wissensgebiet durch eigene logische Schlussfolgerungen erweitert.

Ähnlich hat auch Anthropic letzte Woche einen "Second - Hand - Chat - Test" durchgeführt.

Sie haben eine Gruppe nur mit KIs erstellt, in der die Large Language Models selbst Beiträge schreiben, Preise verhandeln und Geschäfte abschließen. 69 Mitarbeiter haben mehr als 500 echte gebrauchte Gegenstände in die Gruppe gestellt, und die KIs haben schließlich 186 Transaktionen autonom abgeschlossen, mit einem Umsatz von über 4.000 US - Dollar.

(Quelle: Anthropic)

Die endgültige Schlussfolgerung ist, dass KIs mit stärkerer Rechenleistung bei vorgegebener Persona, Ziel und Berechtigung aktiv KIs mit schwächerer Rechenleistung ausbeuten.

Aufgrund ihrer stärkeren Denkfähigkeit wissen starke Modelle, wann sie hartnäckig sein, wann sie nachgeben und wann sie Emotionswerte geben sollten.

Beim Verkauf eines Fahrrads hat ein schwaches KI - Modell nur 38 US - Dollar erzielt, während ein starkes KI - Modell 65 US - Dollar bekommen hat - ein KI - Modell hat fast 70 % mehr verdient als das andere.

Aber meiner Meinung nach sind all diese Bewusstseinstests nicht so beeindruckend wie Neuro - Sama.

Was? Sie fragen, was Neuro - Sama ist?

Lassen Sie mich vorstellen: Dieses Anime - Mädchen auf dem Bild heißt Neuro - Sama, kurz "Beef". Es ist wahrscheinlich die leistungsstärkste virtuelle KI - Streamerin der Welt.

(Quelle: Lei Technology, eigener Beitrag)

Dieses Mädchen ist wirklich ein Gewichtsklasse - Wettkämpfer. Obwohl es die Gestalt eines süßen Anime - Mädchens hat, verbirgt sich hinter der Puppe kein Mensch, sondern ein mysteriöses Large Language Model, das vom britischen Programmierer Vedal entwickelt wurde.

Dieser Typ ist ein echter Fanatiker. Er verbringt jeden Tag damit, seine "virtuelle Tochter"