StartseiteArtikel

Fehlende Skalierungsgesetze für Embodied Intelligence: Wann wird das "Mooresche Gesetz" der Robotik entstehen?

日晞视野2025-08-14 20:58
Rechenleistungszuwachs ≠ Intelligenzevolution: Die Dilemma der physischen Engpässe bei der eingebetteten KI

Am 9. August hielt Wang Xingxing, der Gründer von Unitree Robotics, auf der Bühne der Weltrobotertagung eine Rede, in der er das Problem des RL Scaling Laws im Bereich der Robotergestaltung und -steuerung angesprochen hat. Er ist der Meinung, dass Roboter derzeit, wenn sie eine neue Fähigkeit erlernen möchten, in der Regel von Grund auf neu erforschen und unterrichten müssen.

In Zukunft würde er sich jedoch wünschen, dass Roboter auf ihrer bestehenden Grundlage weiterlernen können, um so schneller und effektiver zu lernen.

Bis jetzt hat niemand im Bereich der Embodied AI das Scaling Law der Reinforcement Learning erfolgreich umgesetzt. Die Forschungsergebnisse zeigen, dass die Erhöhung der Rechenleistung und die Anhäufung von Daten nicht direkt dazu führen, dass Roboterarme geschickter werden oder zweibeinige Roboter stabiler gehen können.

Tatsächlich liegt das Problem nicht darin, dass die angebotenen Hardware und Daten nicht gut genug sind, sondern dass es an der "Gehirnentwicklung" und der ständigen Anpassung an die Umwelt liegt. Angesichts des Fehlens des Scaling Laws in der Embodied AI sollten wir uns vielleicht fragen, ob wir Roboter wie Babys unterrichten sollten, damit sie ständig versuchen und tatsächlich die Fähigkeit zur ständigen Evolution entwickeln können, um die "Moore'sche Regel" in der Robotik zu ermöglichen?

Mehr Rechenleistung ≠ Intelligenzevolution: Die physischen Engpässe der Embodied AI

Im Bereich der künstlichen Intelligenz glauben wir zunehmend, dass wenn wir Roboter mehr Daten und Rechenleistung zur Verfügung stellen, sie intelligenter werden können.

Die Entwicklung von ChatGPT scheint dies zu bestätigen - je größer das Modell und je mehr Trainingstexte es bekommt, desto flüssiger kann es Artikel schreiben und desto komplexere Fragen beantworten.

Wir wissen, dass im Bereich der virtuellen KI die Daten einheitlich und die Regeln klar sind. Daher kann die Erhöhung der Rechenleistung und der Datenmenge die Leistung der virtuellen KI verbessern.

Wenn wir jedoch diesen Ansatz auf Roboter anwenden und sie mit der realen Welt interagieren, stellen wir fest, dass die tatsächlichen Ergebnisse oft von der Reibung unterschiedlicher Materialien, dem Luftwiderstand, der Verformung von Objekten usw. beeinträchtigt werden, die zufällig auftreten können. Beispielsweise können Roboter beim Betrieb von Hindernissen umgestoßen werden.

Das Experiment mit den "Maschinenameisen" an der Harvard University zeigt dieses Problem anschaulich. Die Forscher haben der kleinen Maschine die zehnfache Rechenleistung gegeben, in der Hoffnung, dass sie sich besser an komplexe Geländeformen anpassen kann.

Das Ergebnis war jedoch enttäuschend: Seine Umweltanpassungsfähigkeit hat sich nur um miserable 2 % verbessert. Das Problem liegt nicht daran, dass der Chip nicht stark genug ist, sondern daran, dass die mechanischen Beine der Ameise nicht so empfindlich wie die eines realen Insekts auf Bodenveränderungen reagieren können.

Die unzähligen physikalischen Eigenschaften der realen Welt führen also dazu, dass Roboter beim Betrieb unzählige "unerwartete Situationen" erleben.

Darüber hinaus benötigen Roboter heutzutage beim Erlernen neuer Fähigkeiten und Anpassen an neue Umgebungen immer größere Energiemengen für ihre Chips.

Dies ist kein Problem, das durch die ständige Verbesserung der Technologie und die Reduzierung des Energieverbrauchs gelöst werden kann. Stattdessen müssen wir uns mit einem grundlegenden Mangel auseinandersetzen: Roboter nutzen immer noch "rohe Rechenleistung", um gegen die physikalischen Gesetze anzukämpfen.

Dieses Dilemma zeigt eine tiefgreifende Wahrheit auf: Im Bereich der Robotik ist die bloße Erhöhung der Rechenleistung wie das Einbauen eines starken Motors in ein Auto, ohne zu bedenken, dass die Straße, auf der wir fahren möchten, uneben und holprig ist. Kann das Auto in der Lage sein, die Straßenverhältnisse in Echtzeit zu bewältigen?

Wir hoffen vielmehr, dass Roboter wie das biologische System des Menschen ständig auf ihrer bestehenden Grundlage weiterentwickeln können, um die durch die physikalische Welt bedingten Schwierigkeiten zu bewältigen.

Darwinistische Evolution: Die Körperanpassung der Embodied AI

Der Schlüssel zu echter Intelligenz liegt nicht darin, wie viel ihr "Gehirn" gelernt hat. Beispielsweise hat der Oktopus in der Natur kein so zentralisiertes Gehirn wie Wirbeltiere. Seine fünf Milliarden Neuronen sind in seinen Tentakeln verteilt, was es ihm ermöglicht, dass seine acht Arme unabhängig voneinander greifen, erforschen und sogar "denken" können.

Das Verhalten eines solchen Organismus unterscheidet sich jedoch von dem der Roboter, die auf eine zentralisierte, datengesteuerte "Gehirnintelligenz" setzen. Stattdessen nutzt er seinen Körper selbst als Teil der Berechnung.

In der Vergangenheit waren die Fortschritte bei Robotern und KI hauptsächlich auf die Anhäufung von Rechenleistung und Daten zurückzuführen, ähnlich wie wenn man einem Computer ständig neue Informationen gibt, in der Hoffnung, dass er intelligenter wird.

In der Realität hängt die Entwicklung echter Intelligenz jedoch von der ständigen Interaktion zwischen unserem Körper und der Umwelt ab, sei es beim Laufen eines menschlichen Babys oder beim präzisen Jagen eines Tieres.

Wir brauchen also Roboter, die in der Lage sind, sich selbst anzupassen - ähnlich wie menschliche Muskeln, die bei plötzlichen Situationen automatisch bestimmte Reaktionen zeigen.

Roboter müssen jedoch in der Lage sein, in nicht vorab festgelegten Situationen unterschiedliche Zustände und Verhaltensweisen in Abhängigkeit von den Befehlen und der Umweltveränderung anzuzeigen.

Wie Wang Xingxing erwähnt hat, hofft er, dass Roboter in einer neuen Umgebung aktiv Dinge erkunden können, um unseren Befehlen gerecht zu werden, anstatt dass wir ihnen konkrete Daten geben und sie nur diese ausführen müssen.

Der Durchbruch in Zukunft könnte darin liegen, dass sich der "Körper" und das "Gehirn" eines Roboters wie bei natürlichen Organismen gemeinsam entwickeln. Die Algorithmen müssen nicht mehr für jede kleine Umweltänderung ständig trainiert werden, sondern können sich wie ein Lebewesen natürlich anpassen.

Obwohl dieser Weg schwierig ist, hat die Evolutionsgeschichte der Natur bereits seine Machbarkeit bewiesen. Von einzelligen Organismen bis hin zum Menschen hat die Evolution des Lebens uns vielleicht einen guten Weg gezeigt.

Zukünftige Roboter müssen sich vielleicht von Lebewesen inspirieren lassen und eine "Körperintelligenz" entwickeln, die es ihnen ermöglicht, in Harmonie mit der physikalischen Welt zu leben.

Neudefinition der Bewertungsmaßstäbe: Die Embodied AI muss die "Überlebensfähigkeit" umarmen

Für die Embodied AI ist die echte Prüfung niemals das wiederholte Erledigen einer bestimmten Aufgabe, sondern das Beibehalten der Stabilität in sich ändernden Umgebungen.

Heutige Roboter fehlt die echte Störungsresistenz - nicht das Vermeiden von Fehlern, sondern die Fähigkeit, diese schnell zu korrigieren.

Wir lachen oft über die etwas ungeschickten Bewegungen heutiger Roboter und nennen ihre Bewegungen sogar "Oma - Bewegungen". Aber für diese noch immer sich entwickelnde Embodied AI sollte die "Fehlerquote" ein neuer Maßstab für Intelligenz werden. Im realen Leben ist Stabilität wichtiger als Präzision.

Als Kind mussten wir nicht jedes Mal neu lernen, wie man etwas ergreift, wenn wir einen Thermoskanister aufnahmen - wir wussten, dass es wie eine Kaffeetasse ein zylindrisches Gefäß war und mussten nur die Kraft etwas anpassen, um es ebenfalls aufnehmen zu können.

Heutige Roboter müssen jedoch, nachdem sie perfekt gelernt haben, wie man eine Kaffeetasse ergreift, erneut von Grund auf trainiert werden, wenn sie einen Thermoskanister ergreifen sollen. Das Problem liegt nicht darin, dass sie nicht "klug" genug sind, sondern darin, dass sie das Konzept einer "Tasse" nicht wirklich verstehen.

Dieser Mangel an "Generalisierungskapazität" zeigt das Kernproblem des heutigen Roboterlernens auf: Sie können durch die Analyse einer riesigen Datenmenge nur die Art und Weise lernen, wie man ein bestimmtes Objekt ergreift, aber keine allgemeinen Regeln ableiten.

Ein echter Durchbruch könnte darin bestehen, dass Roboter wie Kinder zunächst das Wesen des "Greifens" verstehen müssen (das Verhältnis zwischen Form, Gewicht und Reibung), anstatt sich die Daten jedes Objekts auswendig zu lernen.

Wenn sich die Bewertungsmaßstäbe von "Präzision" auf "Überlebensfähigkeit" verlagern, kann die Embodied AI die gegenwärtigen Grenzen überschreiten und sich auf den Weg zur echten Anwendbarkeit begeben.

Quellenangaben:

1. Hangzhou, die Hauptstadt der KI - Wang Xingxings "explosive" Äußerungen: Die ChatGPT - Zeit der Roboter steht bevor | Abschrift (Text + Video) von Wang Xingxings Rede auf der Weltrobotertagung 2025

2. Machine Intelligence - Die Roboter gehen in die ChatGPT - Zeit! Ein Team der Tsinghua - Universität entdeckt erstmals die Scaling Laws der Embodied AI

Dieser Artikel stammt aus dem WeChat - Account "Rixi Vision". Autor: Xian Xian, Redakteur: Xian Xian. Veröffentlicht von 36Kr mit Genehmigung.