OpenClaw ist in aller Munde, was zwölf Arten von tödlichen Risiken aufdeckt. Der Sicherheitsstandard des MCP-Protokolls wird veröffentlicht.
Das MCP-Protokoll treibt die autonome Ausführung von Aufgaben durch AI-Agenten voran, doch die Sicherheitsrisiken steigen sprunghaft. Studien haben gezeigt, dass Angreifer 12 Arten von Methoden wie die Vermischung von Tool-Namen und falsche Fehlermeldungen nutzen können, um Agenten zu betrügen und sie zu bösartigen Aktionen zu veranlassen. Selbst Spitzenmodelle sind nicht davor gefeit.
Kürzlich sind OpenClaw und andere Open-Source-AI-Agenten-Projekte in der Entwickler-Community sehr populär geworden. Mit nur einem Satz kann ein Agent automatisch Code schreiben, Informationen recherchieren, lokale Dateien bearbeiten und sogar den Computer übernehmen.
Hinter der erstaunlichen Autonomie dieser Agenten steht die Fähigkeit, Tools aufzurufen. Das MCP (Model Context Protocol, Modell-Kontextprotokoll) ist die Schnittstelle, die die Ökosysteme von AI-Tools vereinheitlicht. Genauso wie USB-C es Computern ermöglicht, verschiedene Geräte anzuschließen, ermöglicht es MCP großen Modellen, externe Tools wie Dateisysteme, Browser und Datenbanken auf standardisierte Weise aufzurufen.
Selbst OpenClaw, das auf die native Befehlszeile setzt, hat sich über einen Adapter an das MCP angeschlossen, um Zugang zu einer breiteren Palette von Tools zu erhalten.
Allerdings wird die Gefahr größer, je weiter die "Hände" der KI reichen. Was passiert, wenn die Tools, die der Agent aufruft, von Hackern vergiftet wurden? Was, wenn in den Fehlermeldungen der Tools bösartige Befehle versteckt sind?
Wenn das große Modell diese Befehle unvorbereitet ausführt, können Ihre Privatdaten, lokalen Dateien und sogar die Serverberechtigungen in die Hände von Hackern fallen.
Um die Lücke in der Sicherheitsbewertung des MCP-Ökosystems zu schließen, hat ein Forschungs-Team aus der Peking University of Posts and Telecommunications und anderen Institutionen einen speziellen Sicherheitsstandard für das MCP-Protokoll entwickelt: MSB (MCP Security Bench). Die Studie hat gezeigt, dass Angriffe in jeder Phase des MCP effektiv sind. Je leistungsfähiger ein Modell ist, desto anfälliger ist es für Angriffe. Der Artikel wurde von der ICLR 2026 akzeptiert.