Mit dem Aufbruch der Agent-Anwendungen, wer wird die Kraft sein, die sie nach oben trägt?
Nach mehr als zwei Jahren Entwicklung rückt die KI nun beschleunigt in die Agenten-Ära ein.
Wenn die KI von der „passiven Reaktion“ zur „aktiven Entscheidung“ übergeht, wird der KI-Agent zum zentralen Bindeglied zwischen der digitalen und der physischen Welt.
Von Unternehmensagenten, die Kundendienst-Tickets automatisch bearbeiten, über akademische Agenten, die mehrstufige Forschungsexperimente koordinieren, bis hin zu persönlichen Agenten, die das Ökosystem intelligenter Haushaltsgeräte verwalten – diese Intelligenzen mit Fähigkeiten zur Inferenz, Planung, Gedächtnisbildung und Werkzeugnutzung verändern die Branchenlandschaft.
Die Grundlage für ihre Intelligenz ist jedoch eine komplexe und präzise Infrastruktur – sie umfasst nicht nur Algorithmen und Modelle, sondern auch das gesamte Lifecycle-Support-System von der Entwicklung bis zur Implementierung, von der Zusammenarbeit bis zur Wartung.
Im Jahr 2025 erreicht die Agent-Infrastruktur (Agent Infra) einen Wendepunkt. Die Fortschritte bei Open-Source-Großmodellen wie DeepSeek und Qwen bieten den Agenten ein starkes kognitives „Gehirn“, während der florierende Ökosystem des Model Context Protocol (MCP) ihnen flexible „Gliedmaßen“ verleiht.
Nach Vorhersagen der IDC werden 80 % aller Unternehmen weltweit innerhalb eines Jahres Agenten einsetzen. Die kooperative Evolution von „Gehirn“ und „Gliedmaßen“ zwingt die tragende „Körper“-Infrastruktur zur umfassenden Modernisierung, und die Agent Infra wird zum Kernbattlefeld für technologische Herausforderungen.
Unternehmensanwendungen von Agenten
Stehen vor fünf großen Problemen
Produkte, die die Fähigkeiten der KI nutzen, um Arbeitsabläufe zu automatisieren, gibt es schon seit langem. Vor der Entstehung der generativen KI waren RPA-Produkte sehr beliebt.
Aber aufgrund der damaligen schwachen KI-Fähigkeiten konnten RPA nur einfache, einzelne Arbeitsabläufe automatisieren, besaßen keine echte Intelligenz und konnten keine komplexen, zusammengesetzten Probleme lösen.
Es war erst mit der Entstehung der generativen KI und der daraus resultierenden Agenten-Anwendungen mit echter Intelligenz, dass Menschen durch die KI-Automatisierung eine deutliche Effizienzsteigerung erzielen konnten.
Ein Agent ist im Wesentlichen eine KI, die verschiedene Werkzeuge nutzen kann. Beispielsweise steuert Manus ein KI-Modell über Prompting und organisiert einen raffinierten Arbeitsablauf (Work Flow), damit das KI-Modell verschiedene Werkzeuge nutzen und so komplexe Aufgaben erfüllen kann.
Allerdings werden sowohl Forschungsagenten wie DeepResearch als auch allgemeine Agenten wie Manus über Webseiten oder Apps an Endbenutzer angeboten.
Diese Art der Bereitstellung eignet sich nicht für professionelle KI-Entwickler, KI-Unternehmer und Unternehmensbenutzer. Denn ihre Anforderung besteht darin, dass die Agenten auf proprietäre Daten zugreifen und nahtlos in die Geschäftsprozesse integriert werden können, um dauerhaft Wert zu schaffen.
Beim kommerziellen Einsatz von Agenten tritt zunächst das Problem der Endgeräteleistung auf. Wenn ein leistungsstarker Agent auf einem lokalen Endgerät des Benutzers läuft, treten verschiedene Probleme auf.
Das erste Problem ist die Rechenleistungseinschränkung bei der KI-Inferenz. Ein Agent besteht aus einem leistungsstarken KI-Modell und einer Reihe von Werkzeugketten, die es nutzen kann.
Für das Ausführen eines leistungsstarken KI-Modells wird normalerweise spezielle Rechenleistung für die KI benötigt, die von GPUs oder speziellen KI-Chips bereitgestellt wird. Fast keine Verbraucher-PCs oder Mobiltelefone können hochpräzise Großmodelle hosten. Daher setzen derzeit viele Agenten-Unternehmen auf Cloud-Rechenleistung und führen das Training und die Inferenz der Modelle in der Cloud durch.
Das zweite Problem ist die Rechenleistung für die Ausführung von Aufgaben. Agenten-Aufgaben zeichnen sich durch hohe Parallelität und hohen Rechenleistungsbedarf aus. Wenn ein Unternehmen Agenten lokal einsetzt und der Geschäftsdurchsatz, den die Agenten unterstützen, schnell ansteigt, wird sofort mehr Rechenleistung benötigt, und die Geschwindigkeit der lokalen Implementierung reicht nicht mehr aus. Umgekehrt, wenn der Geschäftsdurchsatz gering ist, wird die Rechenleistung nicht ausgelastet, was zu einer enormen Verschwendung von Ressourcen führt.
Beispielsweise arbeitete Manus in der Anfangsphase mit virtuellen Maschinen auf lokalen Servern, was dazu führte, dass bei einem starken Anstieg der Benutzerzahl Leistungseinbußen und Instabilitäten auftraten, was die Anfangsbewertung beeinträchtigte.
Das dritte Problem ist die komplizierte Konfiguration von KI-Werkzeugen. Ohne die Möglichkeit, Werkzeuge zu nutzen, ist es für einen Agenten schwierig, komplexe Probleme zu lösen.
Um einen Verkaufsagenten aufzubauen, muss er beispielsweise auf ein CRM-System zugreifen, um Kundendaten zu erhalten, auf ein internes Wissensmanagement-System, um Kunden automatisch über Produkte zu informieren, und auf verschiedene Kommunikationswerkzeuge, um direkt mit den Kunden in Kontakt zu treten.
Es gibt bereits viele Rechenzentren in China, die die Rechenleistungseinschränkung teilweise lindern können. Allerdings bieten diese Rechenzentren nur Rechenleistung an, keine Werkzeugketten, die für die Erstellung von Agenten benötigt werden.
Wenn ein Unternehmen einen Agenten entwickeln möchte, der eng an seine Geschäftsprozesse gekoppelt ist, muss es die Werkzeugketten selbst aufbauen. Dies ist ein sehr komplexer Prozess, der einerseits hohe Entwicklungskosten verursacht und andererseits viel Zeit in Anspruch nimmt, was die Geschäftsentwicklung des Unternehmens verlangsamen kann.
Nachdem die Probleme der Rechenleistungseinschränkung und der KI-Werkzeugkonfiguration gelöst sind, stoßen professionelle KI-Entwickler und Unternehmensbenutzer auf das dritte Problem: die Konflikte bei den Zugriffsrechten.
Das Ziel der Entwicklung und Implementierung von Agenten besteht darin, sie in die Geschäftsprozesse zu integrieren. Bei diesem Prozess müssen neben der Nutzung verschiedener Werkzeuge auch enge Kooperationen mit verschiedenen Softwareanwendungen im Geschäftsprozess hergestellt werden.
Nehmen wir den Verkaufsagenten als Beispiel. Wenn er auf das CRM-System, das interne Wissensmanagement-System und die externen Kommunikationswerkzeuge zugreift, verbraucht er nicht nur lokale Rechenressourcen, sondern nimmt auch die Zugriffs- und Bedienungsrechte der menschlichen Mitarbeiter in Anspruch.
Wenn die Agenten nicht mit den Menschen kooperieren, sondern sich gegenseitig behindern, kann dies die Arbeitsleistung des gesamten Teams verringern.
Für Unternehmensbenutzer gibt es noch ein weiteres großes Problem: die mangelnde Sicherheit. Das Ziel der Unternehmensbenutzer bei der Nutzung von Agenten besteht darin, ihre Geschäftsprozesse zu verbessern oder die Effizienz ihrer Mitarbeiter zu erhöhen. Dies erfordert die Nutzung von internen Unternehmensdaten.
Aber die Ausführung von Agenten-Aufgaben ist wie ein schwarzer Kasten. Der Ausführungsprozess ist für die Benutzer undurchsichtig. Es besteht die Möglichkeit, dass die lokalen Dateisysteme des Computers verändert, gelöscht oder andere Operationen durchgeführt werden. Im besten Fall bleiben Mülldateien zurück, die das System verlangsamen, im schlimmsten Fall kommt es zu Datenverlust oder -lecks.
Darüber hinaus besteht bei der Nutzung von Werkzeugen durch die Agenten selbst ein Sicherheitsrisiko.
Nach Statistiken gibt es bei über 43 % der MCP-Service-Knoten nicht validierte Shell-Aufrufpfade, bei über 83 % der Implementierungen gibt es MCP-Konfigurationslücken, und 88 % der KI-Komponenten-Implementierungen haben überhaupt keine Schutzmechanismen aktiviert.
Wenn die Nutzung von Agenten in Zukunft immer breiter gefasst wird, wird die Sicherheit und das Vertrauen in der KI-Ära noch wichtiger als in der Internet-Ära.
Wenn ein Unternehmen lokale Agenten tatsächlich einsetzt, tritt noch ein weiteres Problem auf: der Mangel an Langzeitgedächtnis.
Ohne semantisches und situationsbezogenes Gedächtnis können Agenten nur einmalige Aufgaben erfüllen, was die Anwendungsbereiche der Agenten in den Geschäftsprozessen von Unternehmen erheblich einschränkt.
Wenn Unternehmensbenutzer Agenten in ihre Geschäftsprozesse integrieren und ihnen Langzeitgedächtnis verleihen können, können die Agenten nicht nur mehrfache Aufgaben erfüllen, sondern auch durch die Analyse dieser Erinnerungen weiterentwickelt werden, so dass sie immer besser verstehen, wie das Geschäft funktioniert und was der Benutzer braucht, und ihre Fähigkeiten bei bestimmten Aufgaben immer stärker werden.
Die Agent-Infra kommt daher wie gerufen
Heute setzen Cloud-Anbieter auf Hochtouren neue Agent-Infra-Technologiearchitekturen ein.
Beispielsweise hat AWS AgentCore (Preview) vorgestellt, eine vollständig verwaltete Laufzeitumgebung, die auf der Lambda FaaS-Infrastruktur tiefgreifend angepasst und optimiert wurde. Sie löst die wichtigsten Einschränkungen von Standard-Lambda, wie langfristige Ausführung, Statusaufzeichnung und Sitzungsisolation, für Bedrock Agents.
Azure hat den AI Foundry Agent Service eingeführt, der Functions FaaS-Ereignissteuerung integriert, so dass der Agent Service die Ereignissteuerung, Skalierbarkeit und Flexibilität von Serverless-Computing nutzen kann, um Agenten leichter zu erstellen und bereitzustellen.
Google Cloud hat den Vertex AI Agent Builder vorgestellt. Obwohl dies nicht offiziell bestätigt wurde, wird allgemein angenommen, dass er stark auf Cloud Run abhängt und es optimiert (Cloud Functions 2nd Gen basiert bereits auf Cloud Run), um die Anforderungen an langfristigen Betrieb, Parallelität und Zustandsverwaltung zu erfüllen.
Alibaba Cloud hat Function AI vorgestellt, das offiziell auf der Serverless x AI-Laufzeitumgebung von FC FaaS tiefgreifend optimiert wurde. Es bietet Model-Services, Tool-Services und Agent-Services an. Entwickler können selbstständig ein oder mehrere Modelle, Laufzeitumgebungen und Werkzeuge auswählen, um Agenten modular zu entwerfen, zu erstellen und bereitzustellen.
PPIO hat die erste Agentic AI-Infrastruktur-Serviceplattform in China – das AI-Intelligenzsystem – vorgestellt. Dieses AI-Intelligenzsystem-Produkt ist in eine Standardversion und eine Unternehmensversion aufgeteilt.
Die Standardversion basiert auf einer verteilten GPU-Cloud-Infrastruktur und bietet die erste Agent-Sandbox in China, die mit dem E2B-Interface kompatibel ist, sowie ein Model-Service, der besser für die Erstellung von Agenten geeignet ist.
Die Agent-Sandbox ist eine sichere Cloud-Laufzeitumgebung, die speziell für die Ausführung von Agenten-Aufgaben entwickelt wurde. Sie unterstützt die dynamische Nutzung von verschiedenen Werkzeugen wie Browser use, Computer use, MCP, RAG, Search und verleiht den Agenten sichere, zuverlässige, effiziente und agiles „Hände und Füße“. Derzeit ist die Sandbox in bekannte Open-Source-Projekte wie Camel AI, OpenManus und Dify integriert.
Alle diese Technologien zielen auf dasselbe Ziel ab – sie bieten den Agenten einen „Körper“ mit höherer Elastizität, geringerer Latenz, stärkerer Sicherheit und längerer Sitzungsdauer, um ihre Übertragung von Laboren in Millionen von Unternehmensszenarien zu ermöglichen.
Wenn die Kognition und die Handlung einen geschlossenen Kreislauf bilden, wird die technologische Lücke der Agent-Infra die Umsetzungsgeschwindigkeit und -qualität der KI-Innovation und -Transformation von Unternehmen bestimmen.
Die Entwicklung des Agent-Entwicklungsparadigmas stellt neue Anforderungen an die zugrunde liegende Infrastruktur.
Die neuen Agent-Infra-Lösungen der großen Cloud-Anbieter konzentrieren sich auf technologische Fortschritte wie langfristigen Betrieb, Sitzungsaffinität, Sitzungsisolation, Unternehmens-IAM und VPC sowie offene Modelle/Frameworks. Im Wesentlichen erfüllen sie die gemeinsamen Anforderungen von drei Kern-Agent-Typen.
Erstens besteht ein starker Bedarf bei LLM-Agenten für die kontinuierliche Nutzung von Werkzeugen. LLM-Agenten müssen Werkzeugketten kontinuierlich nutzen, um komplexe Inferenzen durchzuführen, was mehrere Minuten oder sogar Stunden in Anspruch nehmen kann.
Die traditionellen Serverless-Einschränkungen bei der Ausführungsdauer (z. B. die 15-minütige Obergrenze von AWS Lambda) unterbrechen die Aufgaben zwangsweise. Daher müssen die neuen Agent-Infra-Systeme diese Einschränkungen überwinden und langfristigen Betrieb unterstützen.
Um die Konsistenz des Kontexts in mehrfachen Dialogen aufrechtzuerhalten, ist die Sitzungsaffinität erforderlich, um sicherzustellen, dass dieselbe Anfrage an dieselbe Recheninstanz geroutet wird und kein Zustandsverlust auftritt.
Zweitens besteht eine Abhängigkeit von der Zustandsverwaltung bei Workflow-Agenten. Automatisierte Arbeitsabläufe (z. B. Datenverarbeitungspipelines) erfordern die dauerhafte Aufzeichnung des Ausführungsstatus.
Die zustandslose Natur von traditionellen Serverless-Systemen kann keine Zwischenergebnisse speichern. Die neuen Agent-Infra-Systeme bieten hingegen zustandsbehaftete Sitzungen, um die Atomizität und Wiederherstellbarkeit der Arbeitsabläufe sicherzustellen. Die Sitzungsisolation gewährleistet, dass Aufgaben in multi-tenant- oder hochparallelen Szenarien nicht miteinander interferieren und erfüllt die Sicherheits- und Compliance-Anforderungen von Unternehmen.
Drittens erfordert der Custom-Agent Flexibilität und Ökosystemintegration. Custom-Agenten müssen heterogene Werkzeuge (APIs, Domänenmodelle, Datenbanken, Code-Interpreter, Browser-Nutzung usw.) integrieren. Dies erfordert, dass die neuen Agent-Infra-Systeme offene Modelle/Frameworks (z. B. AutoGen, LangChain, AgentScope) unterstützen.
Eine geschlossene Architektur würde die Fähigkeitserweiterung von Agenten einschränken. Cloud-Anbieter können jedoch durch die Entkopplung der Rechenschicht und der Frameworkschicht plugin-basierte Integrationsschnittstellen bieten.
Die neuen Agent-Infra-Systeme behalten die Kernvorteile