StartseiteArtikel

Abbrecher des Gymnasiums, dennoch in OpenAI aufgenommen: Er hat eine andere Lernweise gewählt und AI mit Hilfe von AI gelernt.

AI深度研究员2025-12-01 11:49
Ein Gymnasialabbrecher wird Wissenschaftler bei OpenAI, lernt KI mit KI und lässt seine Werke sprechen.

23 Jahre alt, absolvierte keine High School.

Im Lebenslauf konnte er kein Hochschuldiplom vorweisen.

Aber im internen System von OpenAI trägt er den Titel: Gabriel Petersson, Research Scientist (Forschender Wissenschaftler), Sora-Team.

Nachdem er die High School abgebrochen hatte, arbeitete Gabriel Petersson nacheinander bei Depict.ai, Dataland und Midjourney und trat im Dezember 2024 offiziell bei OpenAI ein, um an der Videogenerierung zu forschen.

Kein akademischer Abschluss. Aber eine lange Liste von Projekten.

Am 28. November 2025 teilte er in der Podcast-Show Extraordinary seine Lernmethode mit: Wenn er in ein neues Gebiet eintritt, liest er nicht zuerst dicke Bücher, sondern sucht direkt nach realen Problemen, lässt ChatGPT die Schritte aufteilen, Code schreiben und debuggen und lernt dann rückwärts von den Problemen aus, um die Kenntnisse in Mathematik, Algorithmen, wissenschaftlichen Artikeln usw. Stück für Stück aufzufüllen.

Zuerst tun, dann lernen. Dies ist, wie er es nennt: Mit KI lernen, um KI zu verstehen.

Und dies ist nicht ein Einzelfall.

Letzten Monat sagte Sam Altman, auch ein Schulabbrecher und CEO von OpenAI, dass er den jungen Schulabbrechern dieser Generation ein bisschen envious sei. Denn mit der Unterstützung von KI-Tools können sie schneller wirklich nützliche Produkte entwickeln, und der Vorteil traditioneller akademischer Abschlüsse wird immer kleiner.

Ein schwedischer Schulabbrecher, der von der Schulklasse in das Sora-Labor gelangte, hat diese enorme Chance dieser Zeit ergriffen:

Der Wert von akademischen Abschlüssen sinkt, die Fähigkeiten werden neu bewertet, und die Lernweise wird von KI umgeschrieben.

Wie hat er das geschafft?

Abschnitt 1 | Pokemon-Karten umwerben mit 14, bei OpenAI arbeiten mit 23

Viele denken, dass er ein technischer Elitist ist, der von klein auf programmiert hat, immer ein Exzellenzschüler war und Wettbewerbspreise gewann.

Tatsächlich hat er weder akademische Abschlüsse, noch renommierte Lehrer, noch Hintergrund.

Aber er hat immer eine Sache getan: Projekte umsetzen, Fehler machen und dann korrigieren.

Die erste Wende war mit 14 Jahren

In jenem Jahr verdiente er in seinem Haus in der schwedischen Provinz, indem er Pokemon-Karten umwarf, seinen ersten Reichtum, über 20.000 US-Dollar. Er wollte eine Preisvergleichswebsite erstellen, also öffnete er YouTube und suchte nach Anleitungen, wie man eine Website macht. Niemand lehrte ihn, niemand zwang ihn, und so baute er eigenständig sein erstes kleines Tool.

„Ich bin kein Programmierer von Beruf, ich wollte einfach etwas haben und es dann herstellen.“

Die zweite Wende war in der COVID-Zeit

Mit 18 Jahren baute er in einer Woche eine Preisvergleichswebsite für Händedesinfektionsmittel und verdiente in der ersten Woche 22.000 US-Dollar. Die Pandemie hatte die Nachfrage erhöht, und er löste ein reales Problem mit den einfachsten Crawlern und Front-End-Techniken.

Einige Monate später wurde er als temporärer CTO von Curb Food eingestellt, der größten Cloud-Küche in Schweden mit 80 Mitarbeitern. Er gründete von Grund auf ein siebenköpfiges Ingenieurteam, entwickelte ein Küchenmanagementsystem und schrieb Code und reparierte Fehler, während er auf der Couch schlief.

Das Projekt ging live, und er verließ dann. Aber er erkannte eine Sache: Der Erfolg oder Misserfolg eines Unternehmens ist nicht wichtig, wichtig ist, was du als Werk hinterlässt.

Die dritte Wende war, als er Midjourney kennenlernte

Im Jahr 2023 sah er zum ersten Mal KI-Grafiken. Er war fasziniert. Ab diesem Tag stürzte er sich in die Welt der KI.

Er war kein Grafikexperte, aber er entwickelte in Midjourney eines der besten UI-Tools namens fast-grid. Alles durch eigenes Ausprobieren: Wie soll die Oberfläche aussehen? Wie sollen die Prompts organisiert werden? Wie sollen die Modellparameter laufen? Er probierte ein Problem nach dem anderen aus.

Das Projekt wurde kopiert, genutzt, empfohlen und verbreitet. Manche nannten ihn Hacker, aber sein Ziel war einfach: Midjourney noch nützlicher zu machen.

Diese Erfahrungen brachten ihm keine Credits, aber sie hinterließen reale Ergebnisse. Es ging nicht darum, welche Bücher man gelesen oder welche Kurse man besucht hat, sondern darum, welche Produkte man geschrieben, welche Modelle man repariert und wie man debuggen kann.

Genau dies wollte am Ende OpenAI.

  • Ein lauffähiges GitHub-Projekt.
  • Eine Produktpräsentation, die ein reales Problem löst.
  • Eine Person, die wirklich etwas tut.

Er konnte nicht in die Universität gehen, aber er schritt Schritt in eines der weltweit führenden KI-Labore.

Abschnitt 2 | Nicht erst lernen, dann tun, sondern tun und gleichzeitig lernen

Um an der KI-Videogenerierungsforschung zu arbeiten, braucht man normalerweise einen Doktorgrad.

Aber Gabriel gründete sich nicht auf einen akademischen Abschluss. Es waren eine Reihe von real ausführbaren GitHub-Projekten.

Er gestand, dass er am Anfang überhaupt nicht verstand, was ein Diffusionsmodell sei. Er hatte nicht einmal das Attention-Mechanismus von Transformer verstanden.

Aber er öffnete nicht ein Lehrbuch, sondern ChatGPT.

Er fragte sehr konkret: Wenn ich mein eigenes kleines Videogenerierungsmodell entwickeln möchte, was muss ich zuerst verstehen?

ChatGPT gab eine Antwort, und er fragte weiter: Kannst du ein Beispiel für diesen Begriff geben? Gibt es entsprechende Code? Kannst du erklären, was jede Zeile macht? Dieser Satz verstehe ich immer noch nicht, kannst du es so erklären, als hätte ich nur 12 Jahre?

Dann kopierte er den Code und probierte ihn in seinem Projekt aus. Wenn es nicht funktionierte, machte er einen Screenshot und gab Feedback: Was bedeutet dieser Fehler? Ein Zyklus folgte dem anderen, bis der Fehler behoben war.

Der ganze Prozess hatte keine festen Schritte und keine richtige Antwort, nur ein Ziel: Ich muss diesen Fehler hier lösen.

Gabriel nannte diese Methode:

Recursive learning from the task (Rekursives Lernen aus der Aufgabe).

Von einem Problem ausgehend, die Wissensketten rückwärts verfolgen und Schritt für Schritt die Lücken füllen.

Er lernt nicht von Grund auf anfangen, sondern rückwärts von der Aufgabe, die er erledigen will.

Der traditionelle Weg ist von unten nach oben:

Mathematik lernen → Wahrscheinlichkeitstheorie lernen → Neuronale Netze lernen → Erst dann kann man Diffusionsmodelle verstehen

Gabriels Weg ist von oben nach unten:

Ein Fehler im Diffusionsmodell → Nachfragen nach Attention → Mathematik benötigt → Konzepte auffüllen → Weiter mit Codeänderungen

Und das Ergebnis? Er sagte:

„Mit dieser Methode braucht man nur drei Tage, um ein Diffusionsmodell von oben nach unten zu lernen, während der traditionelle Weg von unten nach oben sechs Jahre dauert.“

Es ist nicht nur theoretisches Verständnis, sondern praktisches Verständnis, das man Parameter einstellen und in der Praxis anwenden kann.

Dieses ChatGPT-gesteuerte umgekehrte Lernen hat ihm Doktorfähigkeiten verliehen. Aber es brauchte nicht sechs Jahre, sondern nur drei Tage.

Er sagte: Viele Leute nutzen KI, fragen einmal und gehen dann. Ich frage weiter, bis ich wirklich alles verstehe.

Von der Aufgabe anfangen, von der Intuition ausgehen, von Fehlern auf das Wissen rückschließen.

KI ist der beste Lehrer, aber man muss selber nachfragen.

Abschnitt 3 | Er nutzt nicht nur ChatGPT, sondern forscht mit ChatGPT zusammen

Sora ist eines der komplexesten Multimodal-Modelle von OpenAI.

Die Generierung jedes Videoframes erfordert die Koordination von Milliarden von Parametern, die Zusammenarbeit mehrerer Module und die doppelte Inferenz in Zeit und Raum.

Es ist nicht so einfach, wie in einem Chatfenster Fragen zu stellen und Bilder zu generieren. Es ist echte KI-Forschung: Modelltraining, Parameteranpassung, Code schreiben, Fehler beheben. Gabriel ist der Mann, der diese Arbeit macht.

Er sagte, dass sein täglicher Arbeitsablauf ungefähr so sei:

Beobachten Sie die vom Modell generierten Videos und finden Sie die unlogischen Stellen heraus

Annehmen, wo im Architektur die Probleme liegen, und Prompts schreiben, damit GPT-4 die Analyse hilft

Nachdem er die Vorschläge erhalten hat, liest/ändert er den Kernmodulcode

Dann nutzt er ChatGPT zum Debuggen oder versteht die Mechanismen anhand von wissenschaftlichen Artikeln -Nach der Änderung trainiert er das Modell neu und bewertet die Effekte anhand der visuellen Ergebnisse

Wenn es nicht stimmt, fragt er nochmal, probiert es nochmal und trainiert es nochmal

Oftmals ist mein Gespräch mit GPT nicht um die Antwort zu bekommen, sondern um die Denkweise vollständiger zu machen.

Er erklärt das GPT so detailliert wie einem menschlichen Kollegen: Welche Parameter ich in diesem Modul angepasst habe, wo das trainierte Video unlogisch ist, ich denke, vielleicht achtet das Modell nicht genug auf die Details, vielleicht müssen einige zeitbezogene Informationen hinzugefügt werden...

Nachdem GPT es verstanden hat, gibt es ihm zwei Richtungen:

Schnelles Fehlertestmodell: Ändern Sie die Gewichtung an einer anderen Stelle und trainieren Sie es direkt neu

Strukturanpassungsmodell: Führen Sie andere Mechanismen ein, wie z.B. depth-wise conv

Dann entscheidet er, welches er probieren will.

Derjenige, der die echten Entscheidungen trifft, ist Gabriel. Derjenige, der den Code tatsächlich ausführt, ist auch er.

Aber GPT gibt ihm ein zweites Gehirn: Angstlos zu testen, nicht müde, nicht nervig, weite Abdeckung, immer sofort verfügbar.

In einem traditionellen Forschungssystem muss ein Doktorand seinen Professor fragen, nach Referenzcode suchen und auf die Gruppendiskussion warten, bevor er das Experiment fortsetzen kann.

Gabriel überlässt diese Schritte GPT. Ein 24/7-Online-Forschungspartner.

Er sagte: Ich besiege keine Doktoren mit ChatGPT. Ich nutze es als Forscher.

Der echte Unterschied ist nicht, ob das Modell intelligent ist, sondern ob du es richtig nutzt.

Abschnitt 4 | Akademische Abschlüsse sind nicht mehr wichtig, wichtig sind diese 3 Dinge

Gabriel betont selbst nicht den Titel des akademischen Aufstiegs. In einem Interview sagte er klar:

Ich bin nicht in OpenAI gekommen, um zu beweisen, dass ich ungewöhnlich bin, sondern ich habe mit meinen Projekten gezeigt, dass ich bereits das tue, was sie tun wollen.

Also hat er drei Dinge richtig gemacht.

Erstes: Von Projekten ausgehen, nicht von Büchern

Er fragt nie, welches Konzept er zuerst lernen soll, sondern welches Problem er jetzt lösen soll.

Als er Midjourney nicht gut nutzen konnte, entwickelte er ein UI-Tool.

Als er Diffusionsmodelle nicht verstand, begann er mit einer Videogenerierungs-Demo.

Wenn er Sora forschen wollte, baute er eine vereinfachte Version und stellte sie ein.

Er lernt nicht erst und beginnt dann zu tun, sondern lernt, während er handelt. Bei jedem abgeschlossenen Projekt füllt er ein Stück des Wissenspuzzles.

Zweites: KI nutzen, um das Verständnis zu beschleunigen, nicht um es zu überspringen

Er nutzt GPT nicht, um Code zu schreiben, sondern um das Verständnis zu fördern.

Er fragt an Stellen, die er nicht versteht, immer wieder nach, bis er es erklären kann.

Lässt GPT während des Debuggens die Logik jeder Codezeile analysieren.

Lässt GPT die wichtigsten Änderungen in wissenschaftlichen Artikeln zusammenfassen, wenn ein neues Modell veröffentlicht wird.

Viele nutzen KI, um sich das Denken zu ersparen, während er KI nutzt, um sich selbst zu denken.

Drittes: Mit Werken sprechen, nicht auf akademische Bestätigungen warten

Als er bei OpenAI interviewte, konnte er kein Hochschulzeugnis, Stipendiennachweise oder Empfehlungsschreiben vorweisen. Aber er reichte drei andere Dinge ein:

Ein nutzbares GitHub-Projekt (fast-grid)

Ingenieurserfahrungen, die er in Midjourney gesammelt hat

Ein kleines Projekt, bei dem er eine Videogenerierungspipeline nachgebaut hat

All diese drei Dinge handeln nicht davon, was man gelernt hat, sondern was man geschaffen hat.

OpenAI hat ihn eingestellt, nicht weil er Transformer kannte, sondern weil er tatsächlich einen funktionierenden Transformer gebaut hat.

Was sie wollen, sind nicht Leute, die Begriffe auswendig können, sondern Leute, die Probleme verstehen, Experimente vorantreiben und Ergebnisse erzielen können.

Viele wundern sich über seinen erfolgreichen Aufstieg.

Aber dahinter steckt ein größerer Trend: Akademische Abschlüsse können nur beweisen, dass du Kurse besucht hast, Projekte können beweisen, dass du gearbeitet hast. Lernen nach einem Stundenplan ist schrittweise, Lernen aus Problemen ist wahre Fähigkeit.

KI bricht Wissensbarrieren. Mit KI kannst du jederzeit lernen; ob du es lernen kannst, hängt davon ab, wie gut du fragen kannst.

In der KI-Zeit ist nicht Wissen knapp, sondern Fragefähigkeit und eigenständiges Lernvermögen.

In der zukünftigen Einstellung geht es nicht darum, wo du studiert hast, sondern ob du mit KI reale Ergebnisse erzielen kannst.

Fazit | Nicht die Prüfung entscheidet über das Leben, sondern die Werke sprechen

Gabriels Geschichte ist nicht, dass der Außenseiter den etablierten Wettbewerber besiegt.

Sondern es ist ein in der KI-Zeit nachvollziehbarer Lernweg:

Von Projekten ausgehen, KI nutzen, um das Verständnis zu beschleunigen, und die Fähigkeiten anhand von Werken beweisen.

Dies ist keine Ausnahme, sondern eine Paradigmaänderung:

Nicht erst lernen, dann tun, sondern tun und gleichzeitig lernen.

Nicht auf akademische Zertifizierung warten, sondern mit Projekten sprechen.

Nicht KI nutzen, um zu schreiben, sondern KI nutzen, um tiefgreifend zu verstehen.

Er sagte: Ich bin kein Genie, ich habe nur eine andere Lernweise