In drei Monaten wurden insgesamt 500 Millionen Yuan in Kapital beschafft. Das Embodied AI-Unternehmen "Jijia Vision" hat die Serie-A2-Finanzierung in Höhe von 200 Millionen Yuan abgeschlossen und das native Modell und die native Entität des Physical AGI vorgestellt.
Nur einen Monat nach der Ankündigung der letzten Finanzierungsrunde hat das Unternehmen für Embodied Intelligence „Jijia Vision“ kürzlich eine neue Runde an Investitionen erhalten.
Wie bekannt gegeben wurde, handelt es sich bei dieser Runde um eine Serie-A2-Finanzierung in Höhe von 200 Millionen Yuan. Die Runde wird von Fortune Capital und dem alten Aktionär Huakong Fund gemeinsam geleitet. Renommierte Institutionen wie Shoufazhan Venture Capital, Puyao Xinyie, Caixin Capital, Zhuhai Science and Technology Industry Group, Zhangke Yaokun und Fuzhuo Venture Capital folgen als Mitinvestoren, wobei der alte Aktionär Hedinggong Capital überproportional mitinvestiert.
Zuvor hat Jijia Vision bereits drei aufeinanderfolgende Finanzierungsrunden, nämlich Pre-A, Pre-A+ und A1, abgeschlossen. Innerhalb von drei Monaten wurden insgesamt vier Runden der Serie-A-Finanzierung in Höhe von 500 Millionen Yuan abgeschlossen.
Als ein Unternehmen, das sich auf die allgemeine Intelligenz in der physischen Welt konzentriert, hat Jijia Vision nicht nur ein natives Modell für das Ziel der physischen AGI entwickelt, sondern hat auch am 26. November 2025 die entsprechende Ontologie vorgestellt und sich auf die Endanwendungen der physischen AGI eingestellt.
Konkret umfasst das Produktportfolio des Unternehmens das Weltmodell-Platform GigaWorld (Fahren und Embodied), das allgemeine Embodied-Brain GigaBrain und die allgemeine Embodied-Ontologie Maker sowie andere Hardware- und Softwareprodukte für die gesamte physische AI-Stack. Das Produktportfolio hat von beiden Seiten der Hardware und Software aus einen systematischen Plan für die zukünftige Entwicklung der physischen AI erstellt.
Im Bereich der Modelle hat Jijia Vision ein natives Paradigma von „Weltmodell + Handlungsmodell + Reinforcement Learning“ vorgeschlagen, wobei jeder Schritt von dem Weltmodell angetrieben wird.
Derzeit konvergieren die Modellarchitekturen sich auf allgemeine Handlungsmodelle (wie VLA und Welt-Handlungsmodell); die Datenquellen werden sich auf die echten Gerätedaten und die vom Weltmodell generierten Daten konzentrieren; und die Lernmethode hat ein allgemeines Paradigma von „Imitationslernen + Reinforcement Learning + Weltmodell“ gebildet. Man kann sagen, dass das Weltmodell der zentrale Antrieb für die physische AGI in Bezug auf die Datenquellen, die Lernmethoden und die Modellarchitekturen wird.
Angesichts der Wichtigkeit des nativen Modells wird die native Ontologie, die um die „Bedienung und Oberarme“ zentriert ist, besser mit der physischen Welt interagieren kann und datenorientiert ist, immer wichtiger. Die skalierbare geschlossene Schleife zwischen „Sensor - Aktuator - Datenerfassungsgerät - allgemeines Modell“ wird auch immer wichtiger.
Jijia Vision ist der Meinung, dass die physische AI in eine neue kritische Phase eintritt, und die nächsten 2 - 3 Jahre sind der kritische Zeitraum für die Durchbrüche in der physischen AGI. Unter den ständigen Durchbrüchen des Weltmodells und des Handlungsmodells nähert sich der „ChatGPT - Moment“ in der physischen Welt immer schneller!
Die tiefe Integration des nativen Modells und der nativen Ontologie ist der Schlüssel für das Erreichen der obigen Ziele.
Das Weltmeisterteam, das sich auf die physische AGI spezialisiert hat
Wenn man die vergangenen Errungenschaften betrachtet, hat Jijia Vision das weltweit erste Weltmodell-getriebene Embodied-VLA-Großmodell GigaBrain-0 und das branchenführende Embodied-Weltmodell GigaWorld-0 veröffentlicht und open - sourced.
Die Daten in einem früheren Artikel „Jijia Vision erhält eine strategische Serie-A1-Finanzierung in Milliardenhöhe, gemeinsam geleitet von Huawei Hubble und Huakong Fund, und führt die physische AI mit dem „Weltmodell“ auf den Endweg der Technologie“ zeigen, dass die Leistung der Modelle des Unternehmens auf einem fortschrittlichen Niveau der Branche liegt.
Darüber hinaus hat das Unternehmen kürzlich ein eigenentwickeltes neues Generation der physischen AGI-nativen Ontologie, den Maker H01, vorgestellt und hat bereits mit der massenhaften Produktion und Lieferung begonnen.
Jijia Vision ist eng mit dem Labor für Intelligente Vision der Fakultät für Automatisierung der Tsinghua-Universität verbunden. Das Kernteam hat die Entwicklung der physischen AI in den letzten zehn Jahren miterlebt und hat kontinuierlich weltklasse Ergebnisse in der technologischen Innovation und der industriellen Umsetzung erzielt.
In der CV - Ära hat das Team mehrmals die Weltmeisterschaften in den weltweit einflussreichsten visuellen AI-Wettbewerben wie FRVT, COCO und VOT gewonnen und hat eine umfangreiche industrielle Umsetzung erreicht.
In der Ära des autonomen Fahrens ist die von dem Team vorgeschlagene Serie von Arbeiten wie BEVDet eine der weltweit einflussreichsten Paradigmen für das autonome Fahren im BEV-Ansatz. Es hat lange Zeit die Spitzenposition in der nuScenes-Weltliste inne und hat eine massenhafte industrielle Produktion erreicht. Das Team hat auch die Entwicklung und die kommerzielle Umsetzung von Produkten mit geschlossenen Datenkreisen wie der Horizon AIDI-Plattform und die Entwicklung und die kommerzielle Umsetzung des Baidu Apollo-Simulationsframeworks geleitet.
In der Ära des Weltmodells und der Embodied Intelligence ist die DriveDreamer-Serie von Jijia Vision eine der weltweit ersten repräsentativen Arbeiten an Weltmodellen für die physische Welt und hat eine massenhafte industrielle Produktion erreicht. GigaBrain-0 ist ein eigenentwickeltes Embodied-VLA-Großmodell, das von dem Weltmodell angetrieben wird und auf nationaler Ebene führend ist. GigaWorld-0 ist das weltweit erste systematisch vorgestellte und auf echten Geräten in großem Maßstab validierte Embodied-Weltmodell und wird in realen Szenarien in großem Maßstab eingesetzt.
Dr. Huang Guan, Gründer und CEO von Jijia Vision, ist ein Innovationsführender Ingenieur-Doktor der Fakultät für Automatisierung der Tsinghua-Universität. Er war früher Leiter der visuellen Wahrnehmungstechnologie bei Horizon Robotics und Partner und Algorithmen-Vizepräsident bei Jianzhi Robotics und hat auch Erfahrungen in Spitzenforschungseinrichtungen wie dem Samsung China Research Institute und dem Microsoft Research Asia gesammelt.
Dr. Huang Guan hat die technologische und industrielle Entwicklung der physischen AI in den letzten zehn Jahren miterlebt und hat sein Team geführt, um kontinuierlich bahnbrechende weltweit führende Ergebnisse zu erzielen. Er verfügt über führende technologische Innovationen, industrielle Umsetzungen und Erfahrungen im kontinuierlichen Unternehmertum in der Richtung der physischen AI.
Das native Modell der physischen AGI
Das von Jijia Vision vorgeschlagene Konzept der „physischen AGI“ bezieht sich auf eine allgemeine Künstliche Intelligenz, die in der Lage ist, mit der physischen Welt zu interagieren. Derzeit hat das Unternehmen das native Handlungsmodell GigaBrain-0 und das native Weltmodell GigaWorld-0 für die physische AGI vorgestellt.
GigaBrain-0 ist das Gehirn des Embodied-Roboters und bietet eine end - to - end - Entscheidungssteuerung. Durch die Verwendung der aktuell fortschrittlichsten VLA-Modellarchitektur unterstützt GigaBrain-0 die Eingabe von Bildern, Tiefendaten, Texten und Ontologiezuständen und gibt strukturierte Aufgabenpläne und Bewegungspläne aus. Es wurde auch auf einer großen Menge an Daten vorgespeichert.
Um die Probleme der unzureichenden Präzision und der unzureichenden Inferenzfähigkeit bei der aktuellen Robotermanipulation zu lösen, hat GigaBrain-0 insbesondere die Fähigkeit zur 3D-Raumwahrnehmung und die strukturierte Inferenzfähigkeit verbessert. Es kann präzisere Navigationsbewegungen und komplexere Aufgaben in längeren Sequenzen ausführen und hat eine stärkere Generalisierungsfähigkeit.
Darüber hinaus kann GigaBrain-0 mehrere komplexe Langzeitaufgaben ausführen, einschließlich feinfühliger Manipulationen (wie Kaffeezubereitung, Kartonfalten, Kleiderfalten und Toilettenpapierordnen), Langzeitaufgaben (wie Tischaufräumen und Getränkeausschenken) und Manipulationen während der Bewegung (wie Kistenheben und Kleideraufnehmen). Die Erfolgsrate von GigaBrain-0 ist deutlich höher als die der aktuellen SOTA-Methoden.
GigaWorld-0 ist die Nahrung für den Embodied-Roboter und bietet hochwertige und umfangreiche Trainingsdaten.
Das eigenentwickelte „Weltmodell-Platform GigaWorld“ von Jijia Vision erzeugt durch die Modellierung eines geometrisch konsistenten und physikalisch genauen Weltmodells hochauflösende, kontrollierbare und vielfältige Embodied-Interaktionsdaten, um die „Datenvervielfältigung“ zu erreichen und das vollständigste Embodied-Datensystem aufzubauen. Dadurch hat das trainierte VLA-Modell in den drei Generalisierungsdimensionen der neuen Texturen (Texturen, die während des Trainings nicht gesehen wurden), der neuen Perspektiven (Beobachtungswinkel, die während des Trainings nicht gesehen wurden) und der neuen Objektpositionen (räumliche Anordnungen, die während des Trainings nicht gesehen wurden) eine nahezu 300 %ige Leistungssteigerung erreicht.
Im Vergleich mit den aktuellen fortschrittlichen Weltmodellen auf der PBench (Robot Set)-Referenz ist GigaWorld-0 das Weltmodell mit der geringsten Anzahl an Parametern und der höchsten Gesamtleistung. Dieses Ergebnis beweist, dass GigaWorld-0 sowohl eine ausgezeichnete Generierungsqualität als auch eine extreme Inferenzeffizienz in den Embodied-Intelligence-Aufgaben hat und derzeit die kostengünstigste Weltmodelllösung ist.
△ Die Leistung der Modelle von Jijia Vision. Bildquelle: Offizielles WeChat-Konto von GigaAI
Die native Ontologie der physischen AGI: Maker H01
Für die physische AGI reichen das native Handlungsmodell und das native Weltmodell allein nicht aus. Deshalb hat Jijia Vision auch die native Ontologie, den Maker H01, vorgestellt.
△ Der Jijia Vision Maker H01-Roboter. Bildquelle: Offizielles WeChat-Konto von GigaAI
Der Maker H01, zusammen mit einer Reihe von Toolchains von GigaBrain und GigaWorld, kann schnell in offenen Szenarien wie Haushalten, gewerblichen Dienstleistungen und der Leichtindustrie mit geringeren Kosten und höherer Erfolgsrate implementiert werden und die Aufgaben generalisieren.
Dieser Embodied-Intelligence-Roboter mit hoher Bewegungsfreiheit hat eine Form mit zwei Armen und einem mobilen Fahrwerk. Er kann in verschiedenen Szenarien wie Haushalten, Industrie, Dienstleistungen und Forschung Aufgaben wie das Aufnehmen und Ablegen von Gegenständen, die Inspektion, die Begrüßung und die Unterstützung bei Experimenten ausführen.
Das Fahrwerk ist allseitig angetrieben und hat eine hohe Beweglichkeit und Reichweite. Ein einziger Arm hat eine Lastkapazität im Kilogramm-Bereich und ist mit einem Mehrfingergreifer ausgestattet. Insgesamt ist es eher eine praktikable Embodied-Plattform, die in der realen Geschäftsumgebung sowohl kontinuierliche Arbeitsaufgaben als auch die Validierung von Algorithmen übernehmen kann.
Der Roboter ist in einer Version mit einer Körpergröße von etwa 1,6 Metern erhältlich, um verschiedenen räumlichen und Anwendungsanforderungen gerecht zu werden. Er hat insgesamt mehr als zwanzig Freiheitsgrade und ist mit verschiedenen Sensoren ausgestattet, um feine Manipulationen und sanfte Bewegungssteuerungen auszuführen.
Zugleich unterstützt der Maker H01 verschiedene Fernsteuerungsmethoden. Zusammen mit dem eigenentwickelten Embodied-Brain „GigaBrain“ kann er eine ganzheitliche Koordination bei komplexen Bewegungen wie Greifen, Tragen und Zusammenarbeit erreichen.