Soll man sich eingestehen, dass man in Sachen Open-Source nicht gut ist? Nach der Umwandlung in die "amerikanische DeepSeek" hat das AI-Start-up von zwei Google-Forschern 2 Milliarden US-Dollar an Kapital beschafft, und der Unternehmenswert ist um das 15-fache gestiegen.
Das AI - Startup Reflection AI wurde im vergangenen Jahr von zwei ehemaligen Forschern von Google DeepMind gegründet. Innerhalb von nur einem Jahr absolvierte es die neueste Runde der Finanzierung – es sammelte 2 Milliarden US - Dollar ein, und der Unternehmenswert erreichte 8 Milliarden US - Dollar, was einen Anstieg um das 15 - fache gegenüber dem Wert von 545 Millionen US - Dollar vor 7 Monaten bedeutet.
Das Unternehmen konzentrierte sich zunächst auf eigenständige Programmieragenten, was ein praktikablerer Einstiegspunkt war. Heute definiert sich Reflection AI neu als eine Open - Source - Alternative zu „geschlossenen Spitzenlaboren“ wie OpenAI und Anthropic und wird auch als „amerikanische Version von DeepSeek“ bezeichnet.
„Wir bringen die Spitzentechnologie der offenen Modelle zurück nach Amerika, um ein blühendes Künstliche - Intelligenz - Ökosystem weltweit aufzubauen.“ sagte Misha Laskin, Gründer und CEO von Reflection AI.
Die Investoren dieser Finanzierungsrunde sind beeindruckend und umfassen: Nvidia, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan (Gründer von Zoom), Eric Schmidt (ehemaliger CEO von Google), Citigroup, Sequoia Capital, CRV und andere.
Mit Codierungsagenten beginnen
Reflection AI wurde im März 2024 von Misha Laskin, der die Belohnungsmodellierung im DeepMind - Gemini - Projekt leitete, und Ioannis Antonoglou, Mitbegründer von AlphaGo (dem KI - System, das 2016 den Weltmeister im Go schlug), gemeinsam gegründet.
Laskin sagte in einer Sendung vor einem Jahr, dass er DeepMind verlassen habe, weil er glaubte, dass die AGI bald realisiert werden würde und ein unabhängiges neues Unternehmen ihm ermöglichen würde, schneller voranzukommen. Er prognostizierte, dass „Agenten für kleine Aufgaben“ zuerst realisiert würden, während „allgemeine übermenschliche Agenten“ in etwa 3 Jahren auftauchen würden.
Damals waren beide im Gemini - Projektteam. Ioannis war für RLHF zuständig, und Laskin war für das Training des Belohnungsmodells verantwortlich. Damals passten alle nach dem Pre - Training große Modelle an die „Chat“ - Szene an, wie z. B. ChatGPT und Gemini. Sie waren der Meinung, dass die Methoden zum Training und Feinabstimmung dieser Modelle bereits sehr ausgereift seien, und das Kernproblem sei nun „Daten“ sowie, wie man „Planung“ und „Suche“ auf diesen Modellen umsetzen könne. „Indem wir unabhängig vorgehen, können wir schneller vorankommen.“ sagte Laskin.
Die umfassende Erfahrung der beiden in der Forschung und Entwicklung von Spitzen - KI - Systemen ist ihr Kernvorteil. Sie hoffen zu zeigen, dass Spitzenexperten auch unabhängig von Tech - Giganten die neuesten Modelle entwickeln können.
Vor weniger als 3 Monaten erwähnte Laskin in einem Podcast, dass das Ziel des Unternehmens sei, durch die „kooperative Gestaltung von Forschung und Entwicklung sowie Produkt“ Superintelligenz zu schaffen.
Im Juli dieses Jahres stellten sie den Code - Verständnis - Agenten Asimov für Ingenieurteams vor und behaupteten: „Asimov ist bereits der beste Agent im Bereich des Code - Verständnisses. In Blindtests mit einigen Betreuern großer Open - Source - Softwareprojekte wurde die Antwort von Asimov in den meisten Fällen bevorzugt gegenüber Cursor Ask und Claude Code (Sonnet 3.7 und 4).“ Danach hat das Startup fast keine neuen Produkte offiziell vorgestellt.
Der Grund, warum sie sich für den Programmierbereich als Einstieg entschieden haben, ist, dass sie glauben, dass das Training eines Sprachmodells, das über Code mit Software interagieren kann, der KI quasi „Hände und Füße“ gibt. In Zukunft wird die Interaktion von Sprachmodellen mit verschiedenen Software wie Salesforce und CRM - Tools in den meisten Fällen über API - Aufrufe und Funktionsaufrufe (d. h. Code) erfolgen, und dies ist nicht nur für Ingenieure nutzbar. Zweitens ist die Programmierung für Sprachmodelle ein „natürlicher Stärkenbereich“. Wenn man für Unternehmen einen „Intelligenten Berater“ für Codierungsprobleme schaffen kann, hat man alle Kernfähigkeiten für die Schaffung von Superintelligenz erworben und kann diese leicht auf andere Bereiche ausweiten.
Laskin sagte, dass Asimov nur der erste Schritt sei und dass das „Unternehmens - Superintelligenz“ - Konzept später auf Bereiche außerhalb der Programmierung wie Produktentwicklung, Marketing und Wissensmanagement im Bereich Personalverwaltung ausgedehnt werde.
Bei der Ankündigung dieser Finanzierungsrunde sagte Reflection AI, dass es ein erstklassiges Team von DeepMind und OpenAI gewonnen habe. Diese Personen haben an der Entwicklung von PaLM, Gemini, AlphaGo, AlphaCode, AlphaProof beteiligt oder diese geleitet und auch an Projekten wie ChatGPT und Character AI mitgewirkt.
Laskin sagte früher, dass die Kernmitglieder des Teams in großen Laboren hohe Gehälter verdienen könnten, aber viele Menschen seien in den Bereich der KI gekommen, um bahnbrechende Arbeit zu leisten. Die Goldenen Zeiten der großen Labore lagen in der Frühzeit, wie z. B. als DeepMind Deep Networks und OpenAI GPT - 1 bis GPT - 3 entwickelte. Heute haben Startups die Chance, das nächste Spitzenlabor zu werden.
„Für diese Leute ist Geld nicht das wichtigste Problem – die Aktienanteile, die wir bieten, sind ausreichend, um ihnen langfristigen Wert zu zeigen. Wichtiger ist die Mitwirkung: Sie können die Kernrichtung bestimmen, anstatt in einem großen Unternehmen nur für einen kleinen Bereich zuständig zu sein. Und es gibt derzeit nur wenige Startups, die in der Lage sind, Spitzenlaboren zu konkurrieren. Wir sind somit eine seltene Option, schließlich möchte ja jeder an dem nächsten KI - Durchbruchsprojekt beteiligt sein.“
Reflection AI sagte auch, dass es ein fortschrittliches KI - Trainingssystem aufgebaut habe, das das Unternehmen zugänglich machen wird. Noch wichtiger ist, dass Reflection AI behauptet, „ein skalierbares Geschäftsmodell gefunden zu haben, das mit der Strategie der offenen Intelligenz übereinstimmt“.
Laut Laskin hat Reflection AI derzeit ein Team von etwa 60 Personen, hauptsächlich bestehend aus KI - Forschern und Ingenieuren, die sich auf Infrastruktur, Datentraining und Algorithmenentwicklung spezialisiert haben. Das Unternehmen hat bereits einen Rechenleistungsknoten erhalten und plant, im nächsten Jahr ein Spitzen - Sprachmodell vorzustellen, das mit „dutzenden von Billionen von Tokens“ trainiert wurde.
„Wir haben ein System geschaffen, das bisher nur von Spitzenlaboren erreicht werden konnte – eine Plattform für Large Language Models (LLM) und Reinforcement Learning, die in der Lage ist, Modelle mit gemischten Experten (MoE) in Spitzengröße zu trainieren.“ sagte Laskin.
Reflection AI schrieb auf X: „Wir haben selbst gesehen, wie effektiv diese Methode im Bereich der autonomen Programmierung ist. Jetzt wollen wir diese Methoden auf den Bereich des allgemeinen Agenten - Schließens ausweiten.“
Beginnt mit der „Open - Source“ - Strategie
MoE ist eine Architektur, die Spitzen - große Modelle unterstützt – bisher konnten nur große, geschlossene KI - Labore Trainings in dieser Größenordnung durchführen. Das chinesische DeepSeek hat einen Durchbruch bei der Open - Source - Training von großen MoE - Modellen erzielt, und anschließend sind auch Modelle wie Qwen und Kimi aufgetaucht.
Außerdem berichtete die Bloomberg vor einem Monat, dass DeepSeek ein neues Modell mit stärkeren KI - Agenten - Fähigkeiten entwickelt, das mit nur wenigen Hinweisen komplexe Aktionen für Benutzer ausführen kann und sich auch anhand früherer Aktionen selbst entwickeln und lernen kann. Das Modell soll Ende dieses Jahres vorgestellt werden.
Laskin sagte: „Modelle wie DeepSeek und Qwen sind für uns eine Warnung – wenn wir nichts tun, werden die globalen Intelligenzstandards von anderen Ländern festgelegt, nicht von Amerika.“
Reflection AI sagte, dass die KI bis heute dank einer Reihe von öffentlich geteilten Schlüsselkonzepten wie Selbst - Aufmerksamkeit, Vorhersage des nächsten Wortes und Reinforcement Learning entwickelt werden konnte. Die KI wird zur Grundlage aller Technologien und unterstützt die Beschleunigung der Forschung, die Verbesserung der Bildung, die Optimierung der Energieversorgung, die Verbesserung der medizinischen Diagnose, den Betrieb der Lieferkette und vieles mehr.
„Das Problem ist jedoch, dass die neuesten Technologien derzeit noch in geschlossenen Laboren konzentriert sind. Wenn sich dieser Trend fortsetzt, werden nur sehr wenige Institutionen über das Kapital, die Rechenleistung und das Personal verfügen, das für die Entwicklung von KI benötigt wird, und es wird eine Art „Schneeballsystem“ der Monopolisierung entstehen, die alle anderen Teilnehmer ausschließt.“ „Wir müssen offene Modelle schaffen, die stark genug sind, um die ersten Wahl für globale Nutzer und Entwickler zu werden, um sicherzustellen, dass die Intelligenzbasis offen und zugänglich bleibt und nicht von wenigen Menschen kontrolliert wird.“
In der amerikanischen Tech - Szene wurde die neue Mission von Reflection AI allgemein begrüßt.
David Sacks, AI - und Kryptografie - Sonderbeauftragter der Weißen Haus, schrieb auf X: „Es freut mich, dass es immer mehr amerikanische Open - Source - KI - Modelle gibt. Ein beträchtlicher Teil der Nutzer auf dem Weltmarkt legt Wert auf die Kosten, Anpassbarkeit und Kontrolle, die Open - Source bietet. Wir hoffen, dass Amerika auch in diesem Bereich führend sein wird.“
Clem Delangue, Gründer und CEO von Hugging Face, sagte: „Das ist wirklich gute Nachricht für die amerikanische Open - Source - KI.“ Aber er fügte hinzu: „Die größte Herausforderung besteht darin, zu zeigen, dass die offenen Modelle und Datensätze so schnell geteilt werden können wie die Labore, die derzeit die Open - Source - KI dominieren.“
Offenlegung der Modellgewichte, aber nicht der Trainingsdaten usw.
Demnach definiert Reflection AI „Offenheit“ eher als offenen Zugang als als vollständige Open - Source, ähnlich wie Meta (Llama) oder Mistral.
Laskin sagte, dass das Unternehmen die Modellgewichte, d. h. die Kernparameter der KI, für die Öffentlichkeit zugänglich machen werde, aber die Trainingsdaten und den vollständigen Trainingsablauf nicht veröffentlichen werde. „Tatsächlich sind die Modellgewichte die am meisten beeinflussenden Faktoren, weil jeder auf deren Grundlage experimentieren kann. Was die vollständige Infrastruktur betrifft, können nur sehr wenige Unternehmen sie tatsächlich nutzen.“
Dieses Gleichgewicht trägt auch zum Geschäftsmodell von Reflection AI bei. Laskin sagte, dass Forscher das Modell kostenlos nutzen können, aber dass das Haupteinkommen des Unternehmens von großen Unternehmen stammen werde, die auf dessen Modell Produkte entwickeln, sowie von Projekten von Regierungen, die souveräne KI - Systeme (Sovereign AI) aufbauen.
„Für große Unternehmen ist das offene Modell die Standardauswahl. Sie möchten vollständige Kontrolle über das Modell haben – es auf ihrer eigenen Infrastruktur ausführen, die Kosten kontrollieren und es für verschiedene Arbeitslasten anpassen können. Nachdem die Kosten für KI extrem hoch sind, möchten Sie sie natürlich so gut wie möglich optimieren. Das ist der Markt, auf den wir abzielen.“ sagte Laskin.
Reflection AI hat noch kein erstes Modell veröffentlicht. Laskin gab bekannt, dass das Modell zunächst hauptsächlich auf Text basieren werde und in Zukunft multimodale Fähigkeiten haben werde. Das Unternehmen plant, die Finanzierung in Rechenleistung zu investieren und im nächsten Jahr einen ersten Spitzenmodell vorzustellen.
Bezüglich des Finanzierungsproblems schrieb Laskin auch in einem früheren Blogbeitrag: „Geld ist wichtig, aber wir können effizienter sein als große Labore. Wenn ein großes Labor 100 Einheiten an Geld benötigt, brauchen wir nur 10 Einheiten, wenn wir uns auf die Kernrichtung konzentrieren. Das ist einen ganzen Größenordnung Unterschied.“
Er gestand, dass der Bedarf an Geld hauptsächlich davon abhängt, „wann man die GPU - Kapazität erweitern muss“ – die Hauptkosten von KI - Unternehmen stammen von GPU - Ausgaben, gefolgt von Personal und Daten. „Deshalb wird das Ausmaß unserer Finanzierung mit dem Tempo der Expansion in die nächste Phase übereinstimmen. Wir müssen nicht wie große Labore alles auf einmal aufbauen, sondern können effizienter arbeiten.“
Referenzlinks:
https://reflection.ai/blog/frontier-open-intelligence/
https://techcrunch.com/2025/10/09/reflection-raises-2b-to-be-americas-open-frontier-ai-lab-challenging-deepseek/
Dieser Artikel stammt aus dem WeChat - Account „AI Frontline“, Autor: Chu Xingjuan, veröffentlicht von 36Kr mit Genehmigung.