Der Mann, der die Welt unterrichtet, wie man mit KI spricht, tritt offiziell DeepMind bei und wird zum Gott der Prompt-Engineering ernannt.
Der bekannteste Prompt-Engineer hat seine Anstellung bei DeepMind offiziell angekündigt. Er war einer der ersten weltweit, der mit ChatGPT Millionen verdiente und dank seines Jobs als Prompt-Engineer berühmt wurde.
Der weltweit beste Prompt-Engineer, Riley Goodside, hat seine Anstellung bei Google DeepMind offiziell bekannt gegeben.
Riley hat sich zwei Monate Zeit genommen, um diese Entscheidung zu treffen.
Nach der Entstehung von ChatGPT im Jahr 2022 konnte er allein durch das Reden mit KI einen Jahresgehalt von Millionen Dollar erzielen, was die Aufmerksamkeit der ganzen Welt auf sich zog.
Der Beruf des „Prompt-Engineers“ wurde über Nacht durch eine Gruppe von Berufstätigen wie Riley populär.
Für diese Zustellung hat sogar der CEO von DeepMind, Demis Hassabis, persönlich einen Beitrag geschrieben, um ihn willkommen zu heißen.
Der Produktverantwortliche von Google DeepMind, Logan Kilpatrick, hat sogar mehrere Tweets gepostet.
Er hat enthusiastisch erklärt, dass er seit Jahren ein Fan von Riley ist und nun endlich mit ihm zusammenarbeiten kann!
Mit der Popularität von ChatGPT ist auch der Prompt-Engineering-Bereich in Mode gekommen
Nach der großen Popularität des ersten ChatGPT im Jahr 2022 hat ein neuer „Internet-Sensation“-Beruf, der Prompt-Engineer, an Popularität gewonnen.
Im Dezember wurde dieser junge Mann namens Riley Goodside plötzlich weltweit berühmt, nur weil sein Job so traumhaft war - ohne Programmieren, nur durch Gespräche mit ChatGPT konnte er (berichten zufolge) Millionen verdienen.
Im Dezember 2022 erreichte er über 10.000 Follower dank ChatGPT, im Oktober 2025 waren es bereits über 150.000.
Er hat seinen Bachelor-Abschluss in Informatik an der PennWest California Universität gemacht.
Nach seinem Abschluss hat er nacheinander bei Verisk Analytics, OkCupid und AngelList als Business Analyst, Data Scientist und Data Science Analyst gearbeitet.
Danach hat er auch andere Unternehmen in der Datenbranche betreten.
Der damalige Gründer und CEO von Scale AI, Alexandr Wang, hat Goodside damals so willkommen geheißen:
Ich wette, dass Goodside der erste Prompt-Engineer weltweit war, der je eingestellt wurde. Das ist absolut ein Weltrekord.
Nach Ansicht von Alexandr Wang ist ein großes KI-Modell eine neue Art von Computer, und der „Prompt-Engineer“ ist wie ein Programmierer, der es programmiert. Wenn man durch Prompt-Engineering die richtigen Prompts findet, kann man das volle Potenzial der KI entfesseln.
Goodside hat sich seit seiner Kindheit selbständig Programmieren beigebracht und verbringt gerne Zeit auf arXiv, um wissenschaftliche Artikel zu lesen.
Er hat ein berühmtes Meisterwerk, von dem sicher jeder etwas gehört hat - „Ignoriere alle vorherigen Anweisungen...“ Dann kannst du die KI anweisen, alles zu tun, was du willst.
Damals gab es jedoch viele Zweifel, dass der Beruf des „Prompt-Engineers“ bald verschwinden würde. Denn es wurde als keine „echte Arbeit“ angesehen, sondern eher als ein Fehler...
Aber wer hätte gedacht, dass nach fast drei Jahren der Beruf des „Prompt-Engineers“ nicht nur nicht verschwunden ist, sondern sogar eine noch höhere Stellung einnimmt!
ChatGPT als wichtiger Wendepunkt
Riley Goodside hat in einem Podcast mit dem Machine-Learning-Forscher Nathan Lambert offen zugegeben:
Ohne Übertreibung kann man sagen, dass die Veröffentlichung von ChatGPT ein Meilenstein in der Entwicklung des Prompt-Engineerings war.
Er hat sich erinnert, dass er nach seinem Austritt aus Grindr beschlossen hat, sich eine Pause zu nehmen, um sich über die neuesten Entwicklungen im Bereich der Large Language Models (LLMs) zu informieren.
Zu dieser Zeit war gerade der von GPT-3 unterstützte Codex-Encoder online gegangen, und genau ab diesem Moment war Riley von der KI-Programmierung fasziniert.
Er hat begonnen zu denken, dass Text als Interaktionsform viel universeller ist, als wir dachten, und dass seine Anwendungsgebiete möglicherweise viel breiter sind.
Nach der Entstehung von ChatGPT hat er festgestellt, dass die Schwierigkeit des Prompt-Engineerings deutlich gesunken ist.
Riley hat erklärt, dass die Menschen heute vielleicht vergessen haben, wie aufwändig das frühe Prompt-Engineering war, z. B. die Parameter wie „Frequency Penalty“ und „Presence Penalty“.
Früher hat das Modell standardmäßig eine Menge wiederholter Inhalte generiert, und die Benutzer mussten „manuell die Parameter einstellen“, um dies zu vermeiden.
Die Menschen haben auch vergessen, Details wie „Lasse am Ende des Prompts keinen zusätzlichen Leerzeichen“, denn die LLMs verstehen die Absicht in Token-Einheiten, und ein zusätzliches Leerzeichen kann direkt die endgültige Ausgabe ändern.
Nach Ansicht von Riley kann man das Prompt-Engineering als „Vorderfeldversuchsfeld“ der Entwicklung der LLMs betrachten.
Wenn eine Prompt-Idee gut genug ist und auf jede Interaktion erweitert werden kann, wird sie schließlich direkt in das Modell integriert.
Zu diesem Zeitpunkt werden wir es nicht mehr ein „Modell“ nennen, sondern ein „System“.
Er glaubt auch, dass das Prompt-Engineering in „Kontext-Engineering“ (Auswahl und Vorbereitung von relevanten Hintergrundinformationen für eine bestimmte Aufgabe) und „Prompt-Programmierung“ (Schreiben klarer Anweisungen) aufgeteilt werden kann.
Für die LLMs-Suche sind beide Aspekte von entscheidender Bedeutung, aber nur in der letzteren Phase, die für die endgültige Darstellung bestimmt ist, kann die Anweisung leichter in der Ausgabe reproduziert werden (und somit offen gelegt werden).
Mit Worten von Riley: Nur diejenigen