StartseiteArtikel

Wie viel Rechenleistung benötigt ein humanoider Roboter?

锌产业2025-08-28 14:56
Humanoidroboter benötigen sowohl hohe Rechenleistung als auch kleine Modelle.

Als Fan von Humanoiden Robotern hat Jensen Huang in den letzten Tagen wieder einen Coup gespielt:

Der Edge-Computing-Chip Jetson T5000 mit einer Rechenleistung von bis zu 2070 TFLOPS ist speziell für Humanoidroboter entwickelt.

Damit hat Jensen Huang, der für die Herstellung von Chips steht, die Edge-Rechenleistung von Humanoidrobotern auf ein neues Niveau gehoben.

Ein Niveau, auf dem, ohne auf Cloud-Computing angewiesen zu sein, mehr AI-Inferenzberechnungen lokal durchgeführt und Echtzeitdaten von multimodalen Sensoren verarbeitet werden können.

Dies bedeutet, dass die neuesten Forschungsergebnisse auf dem Gebiet der Modelle und Sensoren schneller in Humanoidrobotern umgesetzt werden können.

Dies ist der Nutzen, den wir von einer Edge-Rechenleistung von über 2000 T für die Branche der Humanoidroboter erwarten können.

Natürlich ist dies eher wie eine mathematische Ableitung, eine theoretische Machbarkeit.

Also, wie viel Rechenleistung brauchen aktuelle Humanoidroboter tatsächlich?

01 Niemand kann Roboter ablehnen

Als die ultimative Form fast aller Technologieprodukte haben Roboter, insbesondere Humanoidroboter, in der Technologiebranche eine einzigartige Stellung und faszinieren viele Technologiegurus.

Unter ihnen haben zwei Technologiegurus die Wertschätzung für Humanoidroboter so stark befördert, dass diese, die ursprünglich an der Peripherie standen, nun zur Spitze der Technologiebranche aufgestiegen sind.

Einer ist der Technologiemanik Musk, der als "Schöpfer" erfolgreich kommerzielle Trägerraketen ins Weltall geschossen, ein Satelliten-Internet aufgebaut, selbstfahrende Autos entwickelt und auch an der Hirn-Computer-Schnittstelle arbeitet.

Nach der Ankündigung im ersten AI Day 2021, in den Bereich der Humanoidroboter einzusteigen, hat er in nur einem Jahr einen Prototypen eines Humanoidroboters gebaut.

Da Musk so viele Wunder geschaffen und so viele Dinge getan hat, die andere sich nicht einmal vorstellen wollten, hat seine Ankündigung, Humanoidroboter zu bauen, das Konzept der Humanoidroboter, das viele Schwierigkeiten durchlebt hat, wieder in den Mittelpunkt der Geschichte zurückgebracht.

Der andere ist Jensen Huang, der Gründer von NVIDIA, dem ersten Unternehmen weltweit mit einem Marktwert von 4 Billionen US-Dollar.

Jensen Huang ist ein strenger Manager und zugleich ein Unternehmer, der für Technologie sehr empfindlich ist. In der Unternehmensgeschichte von NVIDIA hat er in der Keimphase zweier wichtiger technologischer Trends geglaubt:

Der eine ist Künstliche Intelligenz. Bereits 2014, als Deep Learning noch keine Mode war, hat Jensen Huang die Künstliche Intelligenz bemerkt und daran geglaubt, dass sie die Zukunft ist.

Deshalb wurden die von NVIDIA entwickelten GPUs in den folgenden Jahren zu einem wichtigen Werkzeug für amerikanische Professoren bei der Ausbildung von neuronalen Netzen. Jensen Huang hat sogar auf der GTC 2015 direkt erklärt: "Wir sind keine Hardwarefirma, wir sind eine AI-Firma."

Seitdem ist die Künstliche Intelligenz in die Unternehmensstrategie von NVIDIA aufgenommen worden.

Der andere Trend ist die Robotik. Die Jetson-Serie von Rechenplattformen, die NVIDIA für den Bereich der Robotik entwickelt hat, ist viel früher als die aktuelle Welle der Humanoidroboter entstanden.

Die erste Generation der Jetson-Serie von Rechenplattformen war der 2014 veröffentlichte Jetson TK1. Als das erste Produkt der Jetson-Serie war die Veröffentlichung des Jetson TK1 der Ausgangspunkt für die strategische Umorientierung von NVIDIA in Richtung eingebetteter KI und Robotik.

In den folgenden zehn Jahren hat sich die Jetson-Serie von NVIDIA stetig weiterentwickelt, vom anfänglichen Jetson TK1 mit weniger als 1 TFLOPS Rechenleistung bis hin zum heutigen Jetson AGX Thor mit 2070 FP4 TFLOPS Rechenleistung.

Im Laufe dieses Prozesses haben Xavier, Orin und Thor drei bedeutende Generationen von Rechenplattformen von NVIDIA in der Robotikbranche markiert.

Nehmen wir als Beispiel den Jetson AGX Xavier. JD.com und Meituan haben auf der Grundlage dieses Produkts ihre eigenen Logistikroboter entwickelt. Hauptsächlich Hersteller von Industrierobotern wie Fanuc setzen ebenfalls dieses Produkt ein, um Industrieroboterarme zu bauen.

Anschließend ist die Orin-Serie mit einer Rechenleistung von 100 TFLOPS zur AI-Rechenplattform hinter den Starprodukten von chinesischen Unternehmen wie Zhipu und Unitree geworden.

In gewisser Weise hat Musk die Welt auf den kommerziellen Wert von Humanoidrobotern aufmerksam gemacht, während Jensen Huang schrittweise die Leistung der Rechenplattformen von Robotern verbessert hat, sodass Humanoidroboter immer stärkere Edge-Rechenplattformen nutzen können.

Aber selbst Jensen Huang, der so sehr von Robotern fasziniert ist, findet das Konzept der Roboter nicht sexy genug, zumindest nicht mehr einzigartig genug. Deshalb hat er ein neues Konzept geschaffen: Physical AI (Physische KI).

Im Vergleich zur absoluten Dominanz von NVIDIA in der virtuellen Welt zeigt die Physical AI auch die noch größere Ambition von Jensen Huang.

02 Sowohl hohe Rechenleistung als auch kleine Modelle

Wie viel Edge-Rechenleistung brauchen Humanoidroboter?

Dies ist eine Frage, die ich in den letzten Monaten bei Gesprächen mit Branchenexperten immer wieder gestellt habe. Natürlich ist es auch eine Frage, auf die es keine einheitliche Antwort geben wird.

Auf der Grundlage der derzeitigen Edge-Rechenleistung von Humanoidrobotern auf dem Markt liegt diese meist zwischen 100 und 200 T.

Dies liegt nicht daran, dass 100 T die maximale Rechenleistung für Humanoidroboter ist, sondern daran, dass diese Rechenleistung für die gegenwärtigen Humanoidroboter bereits völlig ausreicht.

Was die Fähigkeiten von Humanoidrobotern betrifft, besteht derzeit ein Konsens darin, dass Humanoidroboter immer noch auf einfache Bewegungen wie Greifen und Sortieren beschränkt sind und, unterstützt durch Embodied Models, ständig an der Durchführung von Langzeitaufgaben arbeiten.

Für das Training und die Ausführung solcher Aufgaben reicht eine Rechenleistung von 100 T für die AI-Inferenz bereits im Wesentlichen aus.

Wenn es um die Verarbeitung und Fusion von Daten aus mehreren Sensoren sowie das Ausführen von End-to-End-Modellen mit größeren Parameteranzahlen geht, reicht eine Rechenleistung von 100 T nicht mehr aus. Bisher war die Lösung, die Cloud-Rechenleistung zu nutzen.

Natürlich gibt es noch einen anderen Ansatz, ein Ansatz, der sicherlich der zukünftige Hauptweg der Technologie sein wird: Die Edge-Modelle kleiner zu gestalten.

Kürzlich hat Boston Dynamics, ein Star in der Robotikbranche, ein Video über den aktuellen Zustand des Atlas veröffentlicht. Der Atlas, der ein End-to-End-LBM-Modell nutzt, kann nun auch unter verschiedenen Störungen gut Aufgaben wie Greifen, Sortieren und Falten ausführen.

Laut offiziellen Angaben von Boston Dynamics verwendet das LBM-Modell ein Modell mit 450 Millionen Parametern basierend auf der Transformer-Architektur. In Kombination mit dem Ziel der Strömungsmatching kann es Eingabedaten wie 30-Hz-Bilder, Körperempfindungen und Sprachbefehle in Steuerbefehle für die Bewegung des Atlas umwandeln.

Im Vergleich zu großen Modellen mit Milliarden oder sogar hunderten von Milliarden von Parametern ist ein Modell mit 450 Millionen Parametern eher klein. Die Reduzierung der Rechenlast durch solche kleinen Modelle ermöglicht es Humanoidrobotern, mehr Rechenleistung für die Echtzeitdatenerfassung und -verarbeitung zu nutzen.

Tatsächlich befürwortet nicht nur Boston Dynamics diesen Ansatz, sondern auch NVIDIA, das ständig die Obergrenze der Rechenleistung seiner Rechenplattformen erhöht, aktiv die Verwendung von kleinen Edge-Modellen.

In einer kürzlich veröffentlichten Studie mit dem Titel "Kleine Modelle sind die Zukunft von Agenten" haben Forscher von NVIDIA festgestellt, dass kleine Modelle durch die Optimierung von Hardwareressourcen und der Planung von Agenten effizienter Agentenaufgaben ausführen können.

Bei der Ausführung von Aufgaben durch die meisten Agenten benötigen diese große Modelle für die Werkzeugauswahl, Aufgabenaufteilung, Prozesssteuerung und Planung. Bei der tatsächlichen Ausführung von Aufgaben ist es jedoch oft nicht notwendig, große Modelle für einfache, wiederholende Aufgaben zu nutzen. Stattdessen sollten für jede Teilaufgabe das passende Werkzeug ausgewählt werden.

Die Forscher von NVIDIA sind der Meinung, dass es besser ist, mehrere speziell angepasste kleine Modelle für jede spezifische Aufgabe zu verwenden, anstatt ein allgemeines großes Modell zu nutzen.

Dieser Ansatz ist natürlich auch für die Branche der Humanoidroboter, die derzeit besondere Anforderungen an die Rechenleistung hat, geeignet.

Dieser Gedanke klingt wie etwas, das Boston Dynamics typisch ist, als würde man in die "Programmierung" zurückkehren, aber es ist eine "Programmierung" im Rahmen des Paradigmas großer Modelle.

In der Zukunft, wenn die Inferenzplanung stetig optimiert und die Inferenzsysteme großer Modelle zunehmend modularisiert werden, könnte dieses Paradigma ein unverzichtbarer Vorläufer für die Industrialisierung von Humanoidrobotern in den nächsten zehn Jahren sein.

Dieser Artikel stammt aus dem WeChat-Account "Zinc Industry", Autor: Shanzu. 36Kr hat die Veröffentlichung mit Genehmigung durchgeführt.