Tatsächlich wetten, dass er arbeitslos wird, hat Tian Yuandong und seine Gruppe von acht Personen stolz 4,4 Milliarden Yuan eingesammelt und sich in den "rekursiven Evolution"-Sektor eingegraben.
Keine Produkte. 25 Mitarbeiter.
Gründung vor weniger als einem halben Jahr. Schätzungswert von 4,65 Milliarden US-Dollar.
Was noch verrückter ist: Alle acht Mitbegründer dieser Firma sind Spitzenforscher auf dem Gebiet der Künstlichen Intelligenz.
Sie verbrennen 650 Millionen US-Dollar und setzen darauf, dass ihre eigene Berufsgruppe verschwindet!
- Gründer der NLP-Wortvektoren, ehemaliger Chefwissenschaftler von Salesforce Richard Socher
- Ehemaliger SVP von Salesforce AI Research Caiming Xiong
- Ehemaliger Forschungsdirektor von Meta FAIR Tian Yuandong
- Erster Autor des Vision Transformer (ViT) Alexey Dosovitskiy
- Autor der Darwin-Gödel-Maschine, Pionier der Evolutionsalgorithmen Jeff Clune
- Schlüsselforscher des DeepMind Genie Weltmodells Tim Rocktäschel
- Gründer des OpenAI-Roboterteams Josh Tobin
- Frühes Mitglied von OpenAI, Mitbegründer des AI-Kundenservice-Unicorns Tim Shi
Diese Liste ist fast eine Auflistung der Autoren der wichtigsten KI-Breakthroughs der letzten zehn Jahre.
Ihre Firma heißt Recursive Superintelligence und hat sich gestern offiziell aus dem "Stealth-Modus" geholt.
Die hinterliegende Investorenliste ist sehr imposant – GV (Google Ventures) und Greycroft leiten die Investition an, AMD Ventures und Nvidia folgen mit.
Acht Spitzen-KI-Forscher verbrennen 650 Millionen US-Dollar und setzen auf ihre eigene Arbeitslosigkeit
Socher hat vor einigen Wochen etwas gesagt, das jetzt wie eine Herausforderung klingt.
Die dritte Phase der künstlichen Neuronalen Netze könnte die letzte sein.
Erste Phase: Die Neuronalen Netze lernten, selbst Merkmale zu extrahieren. Die Merkmalsingenieure wurden überflüssig.
Zweite Phase: Einheitliche Modelle machten aufgaben-spezifische Architekturen überflüssig. Viele Firmen in speziellen Nischen verschwanden.
Dritte Phase: Die KI lernt, sich selbst zu trainieren.
Aktuell brauchen Spitzenlabore wie OpenAI, Anthropic und DeepMind Hunderte von Menschen mehrere Monate, um ein modernes Modell zu entwickeln. Datenauswahl, Trainingsdesign, Nach-Training-Ausrichtung und die Wahl der Forschungsrichtung erfordern allesamt menschliche Beteiligung.
Das Problem ist, dass es weltweit nicht mehr als einige Tausend Menschen gibt, die diese Aufgabe ausführen können. Darüber hinaus nähert sich die Fähigkeit der Menschen, komplexe Modelle zu verstehen und zu optimieren, ihrem Limit.
Was Recursive tun will, ist, den gesamten oben genannten Prozess zu automatisieren.
Evaluierung, Datenauswahl, Training, Nach-Training und die Wahl der Forschungsrichtung sollen alle von der KI selbst übernommen werden.
Der gesamte Prozess soll geschlossen sein und von Anfang bis Ende ohne menschliche Beteiligung ablaufen.
Wenn dies gelingt, würde es einen Rückkopplungszyklus bedeuten. Die KI verbessert sich selbst → Die verbesserte KI ist besser darin, sich selbst zu verbessern → Der Zyklus beschleunigt sich.
Das ist "Rekursive Selbstverbesserung" (Recursive Self-Improvement, RSI). Daraus stammt auch der Name der Firma.
Allstar-Spitzenmannschaft
Tian Yuandong
Absolvent der Shanghai Jiao Tong University (Bachelor und Master), Doktorand am Robotik-Institut der Carnegie Mellon University.
Fast zehn Jahre lang arbeitete er bei Meta FAIR, zuletzt als Forschungsdirektor, wo er die Richtung der LLM-Inferenz, Planung und Entscheidungsfindung leitete. Nach der Entlassung im Oktober 2025 verließ er Meta.
Er leitete das ELF OpenGo-Projekt, das mit einer einzigen GPU professionelle Go-Spieler besiegte und auch Projekte wie StreamingLLM und GaLore ins Leben rief.
Er ist auch Mitorganisator des ICLR 2026 Workshops zur rekursiven Selbstverbesserung.
Weiterführende Lektüre: Tian Yuandong wurde von Meta entlassen, aber das Internet hat ihm Hunderte von Jobangeboten gemacht! OpenAI will ihn rekrutieren.
Tim Shi
Bachelor in Informatik an der Tsinghua-Universität (mit einem Austauschsemester am MIT), Doktorand am Stanford AI Lab mit Schwerpunkt auf NLP und Verstärkungslernen.
2016 trat er als frühes Mitglied OpenAI bei und beteiligte sich an der Entwicklung der Kernmodelle. Später gründete er das AI-Kundenservice-Unicorn Cresta und war CTO.
Caiming Xiong
Doktor in Informatik an der State University of New York at Buffalo, Postdoc in Statistik an der UCLA.
Er war ein alter Partner von Socher aus der MetaMind-Zeit. Nach der Übernahme durch Salesforce gründete er das gesamte AI-Forschungssystem und war SVP von AI Research. Er leitete Forschungsgruppen in den Bereichen NLP, Computer Vision und Dialog-AI.
Er hat über 100 Publikationen in der Deep Learning-Forschung veröffentlicht und gewann den ACL 2019 Outstanding Paper Award.
Richard Socher
Doktor in Informatik an der Stanford University. Einer der am häufigsten zitierten Forscher auf dem Gebiet der NLP. Er erfand einige der ersten weit verbreiteten Wortvektoren und Kontextvektoren und arbeitete an Prompt Engineering, bevor die meisten Menschen überhaupt von diesem Begriff wussten.
2014 gründete er MetaMind, das 2016 von Salesforce übernommen wurde. Danach war er Chefwissenschaftler und Executive Vice President und gründete das AI-Forschungslabor und das Produktportfolio von Salesforce.
Nachdem er Salesforce verlassen hatte, gründete er die KI-Suchmaschine You.com, die einen Schätzungswert von 1,5 Milliarden US-Dollar hat und über 200 Millionen US-Dollar an Kapital aufgenommen hat. Jetzt hat er alles an You.com zurückgelassen, um eine Firma zu gründen, die noch keine Produkte hat.
Kürzlich hat er erklärt, warum er das tut. Bei einer der letzten Bewerbungen hat ein Kandidat das Angebot abgelehnt, mit der Begründung, dass die Stelle eines KI-Forschers in den nächsten Jahren automatisiert werden würde. Socher hat beschlossen, diese Einschätzung selbst zu überprüfen.
Jeff Clune
Bachelor in Philosophie an der University of Michigan, Doktor in Informatik an der Michigan State University. Professor für Informatik an der University of British Columbia und CIFAR AI Chair. Er ist auch ein Pionier in den Bereichen Evolutionsalgorithmen und offene KI-Systeme.
Er war Postdoc an der Cornell University und arbeitete später bei Uber AI Labs (Gründungsmitglied) und OpenAI in einer Forschungsleitungsposition.
Er leitete an Sakana AI die Forschung an der Darwin Gödel Machine, die erstmals bewies, dass ein KI-Agent seinen eigenen Code selbständig umschreiben kann, um die Leistung in Benchmarks zu verbessern.
Alexey Dosovitskiy
Doktor in Mathematik an der Moskauer Staatsuniversität. Er hat an der Universität Freiburg (Postdoc, Betreuer Thomas Brox), bei Intel Labs und Google Research an Deep Learning-Forschung gearbeitet.
Sein bekanntester Beitrag ist der Vision Transformer (ViT). Der Artikel "An Image is Worth 16x16 Words" ist einer der am häufigsten zitierten Artikel in der Computer Vision der letzten fünf Jahre. Er hat die Transformer-Architektur aus der NLP in die Computer Vision übertragen und die gesamte Technologie in diesem Bereich neu definiert.
Tim Rocktäschel
Master in Informatik an der Humboldt-Universität zu Berlin, Doktor an der UCL (mit Google und Microsoft Research Doktorstipendien). Professor für Künstliche Intelligenz an der UCL.
Er war Postdoc an der Universität Oxford und arbeitete später bei Meta FAIR als Forschungsmanager und Area Lead und bei Google DeepMind als Senior Research Scientist. Er war an dem Genie Weltmodell-Projekt beteiligt.
Josh Tobin
Bachelor in Mathematik an der Columbia University, Doktor in Informatik an der UC Berkeley (Betreuer Pieter Abbeel).
Während seines Doktorats arbeitete er drei Jahre lang als Forscher bei OpenAI und gründete das Roboterteam. Er war an dem berühmten AI-Rubik-Würfel-Manipulator-Projekt beteiligt.
Nachdem er OpenAI verlassen hatte, gründete er die ML-Überwachungsfirma Gantry und erstellte den Full Stack Deep Learning Kurs.
Seine Stärke liegt darin, Forschungsresultate in nutzbare Engineering-Systeme umzusetzen.
Diese acht Personen kommen aus Meta FAIR, Google DeepMind, OpenAI, Salesforce AI und Uber AI. Ihre Forschungsgebiete umfassen Evolutionsalgorithmen, Weltmodelle, Vision Transformer, Verstärkungslernen, Robotik, NLP und Kern-Training. Trotzdem sind sie unabhängig voneinander zu demselben Schluss gekommen.
Der nächste Schritt in der KI-Entwicklung ist, dass die KI selbst Modelle erstellt. Nicht größer, sondern autonomer.
Diese Geschichte von "verschiedenen Wegen, die zum gleichen Ziel führen" gefällt Investoren besonders gut. GV und Nvidia scheinen ebenfalls davon überzeugt zu sein.
Kein Science-Fiction, jemand hat schon die Hälfte geschafft
Das Ambiten der Firma Recursive ist nicht aus dem Nichts