StartseiteArtikel

ChatGPT hat 147 Mal Unsinn geschrieben, bis ich es einmal kritisiert habe.

爱范儿2025-11-10 18:24
Wer sagt, dass Context Engineering und Prompt Engineering nicht aufeinander aufbauen und einander fördern?

Um drei Uhr nachts kämpfst du seit langem gegen KI-Systeme an. Du wechselst zwischen verschiedenen Plattformen wie ChatGPT, Claude und Gemini und wirst nicht ruhig.

Am Ende schaffst du es nicht, dass es eine ideale E-Mail schreibt – das ist kein Witz, sondern die Erfahrung vieler Menschen.

Ein Entwickler hat versucht, mit ChatGPT eine Verkaufse-Mail zu schreiben, die nicht so „roboterhaft“ klingt. Am Ende hat er es 147 Mal versucht, immer wieder zu ändern und zu fragen, aber die ausgegebenen Texte blieben starr und leer, nichts, was wie von einem Menschen geschrieben wäre.

Schließlich, beim 147. Versuch, tippte er verzweifelt: „Kannst du nicht einfach fragen, was ich brauche?“

Unerwartet wurde diese Klage zu einem Inspirationsträger: Was wäre, wenn KI aktiv fragt und die Details anfordert, die zur Erfüllung der Aufgabe benötigt werden?

Einfach ausgedrückt, verändert Lyra die Persona von ChatGPT. Bevor es auf eine Anfrage antwortet, befragt es zunächst den Benutzer, um die wichtigen Informationen zu erhalten, bevor es anfängt zu schreiben. Zum Beispiel: Früher sagtest du ChatGPT einfach: „Schreibe eine Verkaufse-Mail“, und es gab einfach eine Vorlage aus.

Nachdem du Lyra benutzt hast, fragt ChatGPT bei der gleichen Anfrage nacheinander nach wichtigen Details wie Produkt, Zielgruppe und Problemfeldern und schreibt dann eine E-Mail, die wirklich auf deine Bedürfnisse zugeschnitten ist.

Dieser Beitrag wurde schnell auf Reddit viral und erhielt fast 10.000 Likes und Tausende von Kommentaren. Viele Nutzer lobten es als „toller Gedanke“, andere kritisierten: „147 Mal Prompt zu ändern, das wäre doch schneller, wenn man einfach selbst die E-Mail schreibt.“

„Nach mehr als hundert Versuchen hätte man es schon geschrieben.“

Abgesehen von der Absurdität zeigt diese Komödie des „147-maligen Scheiterns, um GPT zu beschwören“ eine Realität: Es kann manchmal viel komplizierter und lächerlicher sein, als wir denken, eine scheinbar einfache Aufgabe mit KI zu erledigen – es ist an der Zeit, dass sich das Prompting ändert.

Neuer Weg der KI-Zusammenarbeit: „Stimmung“ schaffen und „Kontext“ geben

Die Entstehung von Lyra scheint zufällig, aber sie spiegelt tatsächlich einen Gedanken in der Entwicklung der Prompt-Technologie wider. Früher waren alle darauf fixiert, an den Prompts herumzudoktern, um das Ausgabeergebnis so gut wie möglich zu machen. Manchmal war die Länge des Prompts sogar länger als die Ausgabe der KI.

Die Zweifel an Lyra sind auch eine Reflexion über diese alte Methode. Dahinter steckt ein neuer Trend in der KI-Community, wie zum Beispiel das Context Engineering.

Context Engineering ist an sich eine Aktivität in der Programmierung und Systemgestaltung und wird als „nächste Generation von Grundfähigkeiten“ in der KI-Systemgestaltung angesehen. Es handelt sich um das Aufbauen eines gesamten Prozesssystems wie Hintergrund, Werkzeuge, Gedächtnis und Dokumentensuche in KI-Anwendungsszenarien, damit das Modell Aufgaben unter zuverlässiger Kontextunterstützung ausführen kann.

Darin enthalten sind:

- Gedächtnisstruktur: wie Chat-Verlauf, Benutzerpräferenzen, Werkzeugnutzungsverlauf;

- Vektordatensatz- oder Wissensbasensuche: Suche nach relevanten Dokumenten vor der Generierung;

- Werkzeugaufruf-Befehlsschema: wie Datenbankzugang, Codeausführung, Formatbeschreibung externer APIs;

- Systemprompt: Rolle, Grenzen und Ausgabeformatregeln, die für die KI festgelegt werden;

- Kontextkomprimierungs- und Zusammenfassungsstrategie: Verwaltung der Komprimierung langfristiger Dialoginhalte, um einen effizienten Zugriff des Modells zu gewährleisten.

Wenn du einen Prompt schreibst, arbeitest du in einer Umgebung, in der bereits Informationen wie Verlauf, Themendateien und Benutzerpräferenzen ausgefüllt sind – der Prompt ist der „Befehl“, der Kontext sind die „Materialien und Hintergrundinformationen hinter dem Befehl“.

Dieser Teil der Arbeit ist die Aufgabe von Ingenieuren. Obwohl einige Konzepte und Techniken des Prompt Engineering übernommen werden, wird es in der Softwareentwicklung und Systemarchitekturgestaltung angewendet. Im Vergleich zur Feinabstimmung des Prompts eignet sich der Kontext besser für die praktische Produktion, um Effekte wie Versionskontrolle, Fehlerverfolgung und Modulwiederverwendung zu erzielen.

Was? Die Arbeit von Ingenieuren, was hat das mit dem Benutzer zu tun?

Einfach ausgedrückt: Wenn der Prompt der Zündknopf ist, dann ist das Context Engineering das Design des gesamten Feuerzeuges, um sicherzustellen, dass es beim Drücken des Knopfes Feuer gibt.

Komplizierter betrachtet bietet das Context Engineering das erforderliche standardisierte Systemgerüst für das Aufbauen, Verstehen und Optimieren zukünftiger komplexer KI-Systeme. Es lenkt den Fokus von der Kunst des Prompts auf die Kunst der Informationsverarbeitung und Systemoptimierung.

Eine Studie der chinesischen Akademie der Wissenschaften weist auf den entscheidenden Unterschied zwischen den beiden hin:

Derzeit wird das Context Engineering von der Branche als wichtige Praxis für den Aufbau von Agenten angesehen. Insbesondere der Kontext und der Werkzeugaufruf können die Leistung des Modells effektiv verbessern.

Einfacheres Prompting, klarere Ergebnisse

Trotzdem müssen wir wieder auf die Frage zurückkommen: Was hat die Arbeit von Ingenieuren mit mir als normalem Benutzer zu tun?

Wenn du als normaler Benutzer einen Prompt schreibst, sind Context Engineering und Prompt Engineering zwar nicht vollständig identisch, aber es besteht eine tiefe Beziehung zwischen ihnen – das Verständnis dieser Beziehung hilft dir, effektivere und kontextgerechtere Prompts zu schreiben.

Warum scheitern traditionelle Prompt-Methoden so oft und hängen von Glück ab? Weil viele Menschen KI noch wie eine Suchmaschine verwenden und mit ein paar Befehlen einen perfekten Antwort erwarten. Aber die Generierung von Inhalten durch große Modelle basiert auf dem Verständnis des Kontexts und der Mustererkennung. Wenn der Prompt unklar und die Informationen knapp sind, muss das Modell raten, und es entstehen oft alltägliche Formulierungen oder irrelevante Antworten.

Dies kann daran liegen, dass der Prompt unklar geschrieben ist und die Anforderungen nicht genau definiert sind, aber es kann auch daran liegen, dass der Prompt in einer unstrukturierten Kontextumgebung platziert ist. Wenn er von langwierigen Chatverläufen, Bildern, Dokumenten und ungeordneten Formaten überdeckt wird, kann das Modell möglicherweise „den Schwerpunkt nicht erkennen“ oder „daneben antworten“.

Nehmen wir das Szenario der E-Mail-Schreibung in Lyra als Beispiel. In einem gut strukturierten Fenster, das den vorherigen Kommunikationsverlauf und die Tonfallpräferenzen des Benutzers enthält, kann das Modell anhand dieser Informationen einen E-Mail-Entwurf erstellen, der besser auf den Benutzer zugeschnitten ist – ohne dass der Benutzer einen sehr komplexen Prompt schreiben muss.

Auch wenn der Benutzer sich nur auf das Prompting beschränkt und nicht in das Context Engineering einsteigen kann, kann er sich dennoch an einigen Ideen orientieren.

Zum Beispiel ist eine Form namens „Synergy Prompt“ aus der Reddit-Gemeinschaft ChatGPTPromptGenius eine Art, den Kontext auf Prompt-Ebene zu strukturieren.

Es stellt drei Kernkomponenten vor:

- Metaframe: Jedes Metaframe fügt dem Dialog eine bestimmte Perspektive oder einen Fokus hinzu und ist ein „Grundkognitionmodul“ für die KI (wie Rollenbeschreibung, Zielerklärung, Datenquellenbeschreibung usw.)

- Frames: Die konkreten Inhalte in jedem Kontextmodul

- Chatmap: Aufzeichnung der dynamischen Spur des gesamten Dialogs, um jede Interaktion und Kontextauswahl zu erfassen.

Einfach ausgedrückt, es handelt sich um die ständige Integration von fragmentierten Informationen zu Modulen, die schließlich zu einem Diagramm werden. Beim Gebrauch können diese vorhandenen Module ganzheitlich aufgerufen werden.

Wenn die KI die gesamte Kontextstruktur von der Hauptsache bis zu den Kleinigkeiten versteht, kann es die benötigten Informationen präzise abrufen und präzise und zielgerichtete Antworten geben.

Genau das will das Context Engineering erreichen. Wer sagt, dass dies keine gegenseitige Bereicherung ist?

Dieser Artikel stammt aus dem WeChat-Account „APPSO“, Autor: Entdecker zukünftiger Produkte. 36Kr hat die Veröffentlichung mit Genehmigung vorgenommen.