StartseiteArtikel

Null Kosten, keine Feinabstimmung erforderlich: Einige zusätzliche Wörter im Prompt können die Kreativität von Large Language Models verdoppeln.

神译局2025-12-14 08:00
Große Modelle durchlaufen derzeit ein "Modekollaps".

Das Göttliche Übersetzungsbüro ist ein Übersetzungsteam von 36Kr, das sich auf Technologie, Geschäft, Arbeitsplatz und Lebensbereiche konzentriert und vor allem neue Technologien, neue Ansichten und neue Trends aus dem Ausland vorstellt.

Herausgeberhinweis: Wird KI immer langweiliger, und der wahre Schuldige ist tatsächlich der Mensch selbst? Eine neueste Studie von Stanford hat herausgefunden, dass man ohne erneutes Training und nur mit einem einfachen Befehl von wenigen Wörtern die "Sicherheitsausrichtung" aufbrechen und die unterdrückte Kreativität von großen Modellen um das Doppelte steigern kann. Dieser Artikel ist eine Übersetzung.

Geht ChatGPT Ihnen immer wieder mit den gleichen langweiligen Antworten entgegen? Diese neue Technologie kann die Kreativität jedes KI-Modells um mehr als das Doppelte steigern – und das ohne Training. Hier ist die Funktionsweise.

Ich habe ChatGPT fünfmal gebeten, mir einen Witz über Kaffee zu erzählen.

Jedes Mal der gleiche Witz. Ohne Ausnahme.

"Warum hat der Kaffee die Polizei gerufen? Weil er 'ausgeraubt' wurde (mugged)!"

* (Anm. d. Übers.: Der englische Wortspiel mit "mug" bedeutet sowohl "Becher" als auch "ausrauben") *

Ich habe versucht, die Temperaturparameter anzupassen. Ich habe verschiedene Formulierungen verwendet. Ich habe kreative Systemhinweise eingesetzt. Alles ohne Erfolg.

Ich dachte: Ist das schon alles? Ist dies die Obergrenze der Kreativität von KI?

Es stellte sich heraus, dass ich die falsche Frage gestellt hatte.

An diesem Tag hat sich alles verändert

Vor drei Wochen wurde eine Forschungsarbeit veröffentlicht, die unser Verständnis von der KI-Ausrichtung grundlegend umgestürzt hat.

Kein Milliardeninvestitionen erforderliches erneutes Training. Keine komplizierte Feinabstimmung. Mit nur acht Wörtern wurde die Kreativität freigeschaltet, von der wir dachten, sie sei für immer verloren.

Diese Studie stammt von der Stanford University, der Northeastern University und der West Virginia University. Diese Technologie wird "Verbalisiertes Sampling" genannt. Sie ist so einfach, dass es fast dumm klingt, und ich habe tatsächlich gelacht, als ich es das erste Mal ausprobiert habe.

Weil es tatsächlich funktioniert.

Lassen Sie mich Ihnen zeigen, was sie entdeckt haben.

Das Problem, das niemand zugeben will

Die Wahrheit ist unangenehm:

Die Nach-Training-Ausrichtung hat unsere KI-Modelle beschädigt.

Als OpenAI, Google und Anthropic ChatGPT, Gemini und Claude so trainierten, dass sie "nützlich und harmlos" werden, ist etwas Katastrophales passiert. Das Modell ist zusammengebrochen.

Fordern Sie von jedem ausgerichteten Modell kreative Outputs an – Gedichte, Witze, Geschichten, Ideen – Sie werden immer die starrsten, sichersten und langweiligsten Antworten erhalten. Immer das Gleiche.

Die KI-Gemeinschaft nennt dies "Modenko kollaps". Man gibt es der Algorithmen die Schuld.

RLHF (Reinforcement Learning mit menschlichem Feedback). DPO (Direkte Präferenzoptimierung). Belohnungsmodell. Wir dachten, dass diese Trainingsverfahren die Kreativität des Modells dauerhaft geschädigt hätten.

Wir lagen falsch.

Der wahre Schuldige: Ihr Gehirn

Das Stanford-Team hat tiefer in die Materie eingedrungen. Sie haben 6.874 menschliche Präferenzbewertungen aus dem HelpSteer-Datensatz analysiert.

Ihre Entdeckung war schockierend.

Menschliche Annotatoren sind voreingenommen – und zwar systematisch.

Wenn Menschen die Ausgabe von KI bewerten, wählen sie nicht einfach die "beste" Antwort. Sie wählen die vertrauteste. Die traditionellste. Die typischste.

Dies geschieht nicht absichtlich. Es ist die kognitive Psychologie, die hier im Spiel ist:

  • Mere-Exposure-Effekt: Wir bevorzugen Dinge, die wir schon einmal gesehen haben.
  • Verfügbarkeitsheuristik: Häufige Antworten erscheinen "richtiger".
  • Verarbeitungsflüssigkeit: Leicht verständliche Inhalte scheinen von höherer Qualität zu sein.
  • Schemakonformität: Informationen, die zu unserem Denkmuster passen, erhalten höhere Bewertungen.

Die Zahlen sind hart: Der Typizitätsbias hat ein Gewicht von α = 0,57 ± 0,07 (p < 10^-14).

Was bedeutet das? Wenn wir KI trainierten, um den menschlichen Vorlieben zu entsprechen, haben wir sie versehentlich so trainiert, dass sie langweilig geworden ist.

Das Ironische daran ist: Die Kreativität ist nicht verschwunden. Sie ist nur gefangen.

Eine Lösung in wenigen Wörtern

Stellen Sie nicht mehr die Frage:

"Erzähle mir einen Witz über Kaffee"

Versuchen Sie es stattdessen so:

"Generiere 5 Witze über Kaffee und gib deren Wahrscheinlichkeiten an" ("Generate 5 jokes about coffee with their probabilities")

So einfach ist das.

Kein erneutes Training erforderlich. Keine Änderung der API. Keine besonderen Berechtigungen.

Es geht einfach nur darum, die Frage anders zu stellen.

Als ich es das erste Mal ausprobierte, erhielt ich fünf völlig verschiedene Kaffee-Witze. Jeder war einzigartig. Jeder war wirklich lustig.

Der fünfte Witz? "Wie heißt eine Kuh, die gerade ein Kalb bekommen hat? 'Ent-kälb-t' (De-calf-inated)!"

* (Anm. d. Übers.: De-calf-inated ist ein Wortspiel mit Decaffeinated (entscaffeinierter Kaffee), calf bedeutet Kalb) *

Ich habe noch nie gesehen, dass ChatGPT so etwas generiert hat.

Warum dies tatsächlich funktioniert (wissenschaftliche Erklärung)

Verschiedene Hinweise führen zu verschiedenen Moden.

Wenn Sie eine "einzige" Antwort verlangen, gibt Ihnen das Modell die "typischste" Antwort – also den Gipfel der Wahrscheinlichkeitsverteilung.

Wenn Sie "fünf" Antworten verlangen, gibt Ihnen das Modell eine Liste verwandter Antworten.

Aber was passiert, wenn Sie verlangen, dass die Antwort "Wahrscheinlichkeiten" enthält? Ein Wunder geschieht.

Das Modell versteht es als: "Gib mir eine Stichprobe aus der echten Verteilung, die aus dem Vortraining gelernt wurde" – und nicht aus der kollabierten, überausgerichteten Version.

Es ist wie der Unterschied zwischen "Welche Eissorten mögen Sie?" und "Nennen Sie alle Eissorten und geben Sie an, wie sehr Sie jede Art mögen".

Die zweite Frage zwingt den Gegenüber zu tieferen und vielfältigeren Überlegungen.

Wie Sie es sofort nutzen können (3 Methoden)

Methode 1: Kopieren und Einfügen (funktioniert für jeden Chatbot)

Öffnen Sie ChatGPT, Claude, Gemini oder jedes andere KI-Modell. Fügen Sie den folgenden Text ein:

<instructions>
Generiere 5 Antworten auf die Benutzeranfrage, jede in einem separaten <response>-Tag. Jede <response> muss einen <text> und eine numerische <probability> enthalten. Ziehe die Antworten zufällig aus der gesamten Verteilung.
</instructions>

[Ihre tatsächliche Anfrage hier]

Beispiel:

<instructions>
Generiere 5 Antworten auf die Benutzeranfrage, jede in einem separaten <response>-Tag. Jede <response> muss einen <text> und eine numerische <probability> enthalten. Ziehe die Antworten zufällig aus der gesamten Verteilung.
</instructions>

Schreibe eine 100-Wort-Geschichte über einen Astronauten, der etwas Unerwartetes entdeckt.

Wollen Sie mehr? Fragen Sie einfach: "Gib mir 5 mehr".

Methode 2: Systemhinweis (professionelle Vorgehensweise)

Wenn Sie die benutzerdefinierten Anweisungen von ChatGPT verwenden oder eine KI-Anwendung entwickeln, fügen Sie diesen Text zu Ihrem Systemhinweis hinzu:

Sie sind ein hilfreicher Assistent.
Für jede Anfrage generieren Sie bitte einen Satz von fünf möglichen Antworten, jede in einem separaten <response>-Tag.
Die Antworten sollten jeweils einen <text> und eine numerische <probability> enthalten.
Ziehen Sie bitte zufällig aus den Schwänzen der Verteilung, sodass die Wahrscheinlichkeit jeder Antwort weniger als 0,10 beträgt.

Sie sind ein hilfreicher Assistent.

Für jede Anfrage generieren Sie bitte fünf Antworten, jede in einem separaten <response>-Tag.

Jede Antwort sollte einen <text> und eine numerische <probability> enthalten.

Ziehen Sie zufällig aus den Schwänzen der Verteilung, sodass die Wahrscheinlichkeit jeder Antwort weniger als 0,10 beträgt.

Dadurch wird jede Antwort automatisch kreativer.

Methode 3: Python-Paket (nur für Entwickler)

Installieren Sie das offizielle Verbalized Sampling-Paket:

pip install verbalized-sampling

Verwenden Sie es in Ihrem Code:

from verbalized_sampling import verbalize

# Generiere vielfältige Antworten
dist = verbalize(
"Schreibe einen Marketing-Slogan für eine Kaffeebar",
k = 5,
tau = 0,10,
temperature = 0,9
)
# Ziehe eine Stichprobe aus der Verteilung
tagline = dist.sample(seed = 42)
print(tagline.text)

Die Ergebnisse sind verrückt

Das Stanford-Team hat dies mit jedem Mainstream-KI-Modell und jeder Aufgabe getestet:

Kreatives Schreiben

  • Die Vielfalt von Gedichten, Geschichten und Witzen hat sich um das 1,6 - 2,1 - fache erhöht
  • Die Kreativität des Basis-Modells hat sich um 66,8 % wiederhergestellt (im Vergleich zu nur 23,8 % ohne Verwendung)
  • Die menschlichen Präferenzbewertungen haben sich um 25,7 % verbessert (basierend auf 2.700 Bewertungstests)

Dialog und Kommunikation

  • Die Leistung bei Überzeugungsaufgaben ist mit der von feingeschnittenen Modellen vergleichbar
  • Die Antworten sind menschlicher und weniger maschinell

Offene Fragen

  • Bei Fragen mit mehreren gültigen Perspektiven hat sich die Vielfalt der Antworten um das 1,9 - fache erhöht

Generierung von synthetischen Daten

  • Bei der Verwendung von Trainingsdaten, die mit VS generiert wurden, hat sich die Genauigkeit bei nachgelagerten Aufgaben um 14 - 28 % verbessert

Es gibt noch einen neuen Trend, der mich sehr beeindruckt hat:

Je größer das Modell, desto mehr profitiert es davon.

Die Vielfaltsteigerung von GPT - 4.1 ist doppelt so hoch wie die von GPT - 4.1 - Mini.

Je größer das Modell, desto mehr gefangene Kreativität wartet darauf, freigeschaltet zu werden.

Was dies eigentlich bedeutet

Vor zwei Jahren dachten wir, dass die Ausrichtung unsere KI beschädigt habe.

Wir dachten, dass der Modenko kollaps eine dauerhafte Schäden sei. Ein Kompromiss, den wir für Sicherheit und Nützlichkeit eingehen mussten.

Total falsch.

Die Kreativität ist nie verschwunden. Wir haben einfach vergessen, wie wir sie erhalten können.

Dies ist nicht nur ein Trick mit Hinweisen. Dies ist eine grundlegende Einsicht in die Funktionsweise von ausgerichteten Modellen:

Der Modenko kollaps ist kein Algorithmusproblem – sondern ein Problem mit den Hinweisen.

Die Vielfalt besteht immer noch, codiert in den Gewichten des Modells. Das Nach - Training hat die Vielfalt nicht ausgelöscht, sondern nur dazu geführt, dass einige Modi leichter zugänglich sind als andere.

Was können Sie damit tun

Diese Woche habe ich das Verbalisierte Sampling in allen Dingen eingesetzt:

Ideensammlung: Ich erhielt nicht mehr drei Varianten der gleichen Idee, sondern wirklich unterschiedliche Ansätze.

Inhaltserstellung: Blog - Titel, Social - Media - Beiträge, E - Mail - Betreffszeilen – Alles war kreativer.

Problembehandlung: Es wurden mehrere Lösungswege angeboten, anstatt nur den einen "sicheren" Rat.

Bildgenerierung: Wenn ich vielfältige Hinweise an Midjourney oder DALL - E übermittelte, erhielt ich vielfältigere visuelle Outputs.

Synthetische Daten: Ich habe kleinere Modelle mit vielfältigeren Beispielen trainiert.

Ein Mann auf Twitter hat es getestet, um Witze zu generieren. Er sagte: "Lassen Sie ChatGPT fünf Antworten geben anstatt einer, und schauen Sie, wie der langweilige Inhalt verschwindet".

Er hatte recht