Welche Führungsqualitäten benötigen Unternehmen in der Ära des Agentic AI?
Wenn Ihr Unternehmen im vergangenen Jahr noch darüber nachgedacht hat, wie Sie Ihre Mitarbeiter effizienter mit Chatbots arbeiten lassen können, ist es an der Zeit, den strategischen Fokus zu ändern. Wir erleben einen grundlegenden Sprung von "Automatisierung" zu "Agentic AI".
Für Unternehmensmanager ist dies einerseits aufregend, andererseits aber auch voller Herausforderungen. Als Treiber des Wandels haben wir die Chance, unser Unternehmen über die reine Effizienzsteigerung hinaus in eine neue Ära der hohen Autonomie zu führen. Gleichzeitig erfordert dies von uns, die Betriebslogik des Unternehmens gründlich neu zu überdenken.
Neudefinition von "Agent"
Auf dem heutigen Markt scheint alles mit dem Label "Agent" versehen zu sein. Aber wenn man hinter die Oberfläche blickt und die zugrunde liegende Logik betrachtet, zeigt sich, dass die Entwicklung von Agenten bis heute eine klare Reifegradskala aufweist.
Die erste Stufe ist die traditionelle Automatisierung, bei der repetitive und vorhersehbare Aufgaben mithilfe von Skripten und festen Workflows bearbeitet werden. Obwohl effizient, verfügt sie nicht über Fähigkeiten zum Denken.
Die zweite Stufe ist der AI-Assistent, also der derzeit weit verbreitete Chatbot. Sie verfügen über ein umfangreiches Wissensverzeichnis und können Abfragen beantworten, Dokumente zusammenfassen und sogar Daten über RAG (Retrieval Augmented Generation) abrufen. Der Kern liegt in der "Reaktion". Sie können in einem Dialog unterstützen, aber ihre Fähigkeit, eigenständig zu handeln, bleibt eingeschränkt.
Die dritte Stufe ist der auf Zielen und Aufgaben basierende Agent. Sie verlassen sich nicht mehr auf Anweisungen, sondern auf "Absichten". Wenn Sie ihm ein bestimmtes geschäftliches Ziel geben, kann er mit Menschen zusammenarbeiten und eigenständig Tools nutzen, um die Aufgabe zu erfüllen.
Die letzte Stufe ist das Agentic-System, auch die höchste Form der Autonomie. Mehrere Agenten arbeiten wie ein Team zusammen und können hochkomplexe oder sogar unklare Aufgaben bearbeiten. Sie können das Ziel in zahlreiche konkrete Schritte zerlegen und diese aufgeteilt erledigen. Hier evolviert der Kernwert der KI von "Reaktion" zu "Erfolg".
Zielorientierung: Sie warten nicht auf Schritt-für-Schritt-Anweisungen, sondern empfangen und verstehen die "höhere Absicht", planen dann eigenständig den Weg und setzen die Absicht in Handlungen um.
Fähigkeit zur Ressourcenintegration: Sie können nicht nur auf Daten zugreifen, sondern auch den Kontext, die Organisationshierarchie und die Rollen verstehen. Sie wissen, welche Tools und APIs sie für die Erfüllung der Aufgabe nutzen müssen.
Gedächtnisfähigkeit: Echter Agenten haben ein Gedächtnis. Sie können sich an die Probleme erinnern, die sie beim letzten Mal bei der Bearbeitung einer ähnlichen Aufgabe hatten, und so Wiederholungen vermeiden.
Lern- und Anpassungsfähigkeit: Sie sind keine statischen Software, sondern Systeme, die sich ständig aus dem Feedback-Zyklus optimieren können.
Meldeverfahren: Dies wird oft missverstanden. Wenn ein Agent auf ein Problem stößt, das er nicht bearbeiten kann, sucht er die menschliche Eingreifung. Dies ist nicht das Versagen des Systems, sondern eine integrierte Vertrauensmechanik. Das bedeutet, dass Sie ihm die Geschäftsprozesse in die Hand geben können, weil er weiß, wann er aufhören und um Ihre Hilfe bitten soll, anstatt blind Risiken einzugehen.
Natürlich wird viele Menschen fragen, warum die KI-Welle schon seit Jahren andauert und erst jetzt der Begriff "Agent" so stark betont wird. Die Antwort liegt in der Konvergenz zweier Schlüsselkurven - heutzutage verdoppelt sich die Komplexität der Aufgaben, die die KI unabhängig bearbeiten kann, etwa alle sieben Monate. Das bedeutet, dass die KI immer komplexere Aufgaben übernehmen kann. Gleichzeitig fallen die Kosten für KI-Technologien abrupt. Nehmen wir beispielsweise den MMLU (Massive Multi-Task Language Understanding)-Benchmark-Test. Ein Ergebnis von 83 Punkten entspricht dem Niveau eines Doktoranden und ermöglicht die Bearbeitung von Feinheiten und Mehrdeutigkeiten. Vor einigen Jahren war die Kosten für diese "Doktoranden-KI" exorbitant hoch. Heute liegen die Kosten für die Verarbeitung von einer Million Tokens bei nur etwa 0,48 US-Dollar, im Vergleich zu 98 US-Dollar im Jahr 2022.
Wenn die Fähigkeiten der KI steigen und die Kosten fallen, erreichen wir den "Süßpunkt" für die Massenanwendung von Agenten.
Annahme von "Nichtdeterminismus"
In der neuen Ära der Agentic AI unterscheidet sich ein wesentlicher Aspekt von der Vergangenheit darin, dass der Nichtdeterminismus (Non-determinism) nicht länger ein Mangel des Systems, sondern eine inhärente Eigenschaft ist. Im Gegensatz zur traditionellen Betriebswirtschaftslehre, die sich nur auf die Belohnung von "Bestimmtheit" konzentriert, liegt im Zeitalter der Agentic AI der Wert gerade im Nichtdeterminismus, d. h. in der Fähigkeit, sich an den Kontext und unklare Informationen anzupassen und zu optimieren.
Um diese Macht zu beherrschen, müssen Führungskräfte in vier Dimensionen ihre Denkmuster ändern.
1. Governance-Modell: Vom "Schrankenpassieren" zum "Aufsichtsrat"
Die traditionelle Governance funktioniert wie eine Mautstation. Sie erreicht die Compliance, indem sie Prozesse definiert, jeden Schritt kontrolliert und Checklisten verwendet. Aber wenn es um Tausende von Agenten mit hohen Interaktionsraten geht, bricht dieses Modell zusammen. Stattdessen sollte man Agenten wie einen Aufsichtsrat einen CEO managen.
Genau wie ein Aufsichtsrat einem CEO nicht sagt, was er täglich tun soll, sondern Strategieziele und Grenzen setzt, müssen Sie auch einen "Strategie-Engine" aufbauen und dem Agenten klar sagen: "Dies ist dein Ziel, und dies sind die roten Linien, die du nicht überschreiten darfst." Dann können Sie ihn durch kontinuierliche Kalibrierung und Beobachtung verwalten, anstatt bei jeder Transaktion manuell zu genehmigen.
2. Risikomanagement: Vom "Fabrikband" zur "Handelsbörse"
Das traditionelle Risikomanagement ähnelt einer Fabrik. Üblicherweise werden feste Schwellenwerte festgelegt. Beispielsweise muss ein Einkaufsauftrag über 2 Millionen US-Dollar von einem Vizepräsidenten genehmigt werden, und ein Auftrag über 10 Millionen US-Dollar muss an den CFO weitergeleitet werden. Diese starre Risikokontrolle kann die Kernvorteile von Agenten zerstören.
In der neuen Ära sollten Unternehmen das Risikomanagement wie bei einer Handelsbörse handhaben.
Eine Finanzbörse ist voller Risiken und Ungewissheiten, aber sie wird durch Echtzeit-Transparenz und "Schutzschalter" (Circuit Breakers) effektiv verwaltet. Die Aktionen der Händler werden nicht direkt beeinflusst, aber wenn ihre Handelskombination oder eine bestimmte Transaktion gegen die Regeln verstößt, wird der Schutzschalter ausgelöst und der Handel gestoppt. Die Verwaltung von AI-Agenten sollte diesem Prinzip folgen. AI-Agenten müssen innerhalb der vom Unternehmen festgelegten Risikogrenzen agieren, um ihre "Liquidität" (d. h. die Betriebsberechtigung) zu erhalten. Dies beinhaltet nicht nur die Überwachung des Verhaltens einzelner Agenten, sondern auch die Überwachung von systemischen Abweichungen im Multi-Agenten-System - sobald eine Abweichung auftritt, muss der Schutzschalter ausgelöst werden.
3. Organisationsstruktur: Vom "Funktions-Silo" zum "Immunsystem"
Die Organisationsstruktur passt sich immer an technologische Veränderungen an. Die traditionelle Organisationsstruktur ist oft vertikal aufgebaut, was zwar stabil ist, aber die Problemlösung verlangsamt.
Beim Aufbau der Organisationsstruktur für AI-Agenten sollte man das Denkmodell des "Immunsystems" anwenden. Wenn weiße Blutkörperchen ein Virus entdecken, warten sie nicht auf Anweisungen des Gehirns und rufen auch nicht die Lunge zur Beratung zusammen, sondern sie versammeln sich schnell und lösen das Problem durch zielorientierte Koordination. Daher ist die Organisation von Querschnittsteams um Geschäftsprozessen herum die richtige Art, um Nutzen aus AI-Agenten zu ziehen.
4. Unternehmenskultur: Vom "Betriebsablauf" zum "Kontinuierlichen Lernen"
Die meisten Unternehmenskulturen belohnen "präzise Ausführung" und bestrafen "Abweichungen". Aber die Laborkultur ist offen für neue Entdeckungen, auch wenn das Ergebnis nicht immer zufriedenstellend ist. In einem Labor wird ein Fehler als Lernchance betrachtet, dokumentiert und weit verbreitet. In einer solchen Kultur werden neue Entdeckungen und Anpassungen zu einer Eigenschaft, nicht zu einem Mangel.
Aufbau des "Gehirns" und der "Personalausweise" von Agenten
Welche technologischen Fähigkeiten machen AI-Agenten möglich? Die Antwort sind drei Kernfaktoren: Intelligenz, Kontextverstehen und Vertrauen.
Wenn wir AI-Agenten als Menschen ansehen, ist die Intelligenz ihr "Gehirn". Technologische Modelle - einschließlich Denkmodellen für die Kette des Denkens (Chain-of-Thought) und Reflexion - verleihen dem "Gehirn" die Fähigkeit, Absichten in Aufgaben umzusetzen. Im Idealfall möchten wir, dass AI-Agenten die höchste Intelligenz, den niedrigsten Preis und die schnellste Reaktionszeit haben. Aber in der Realität muss man Kompromisse eingehen. Jedes Modell hat seine eigenen Stärken: Einige sind gut in der logischen Schlussfolgerung, andere in der schnellen Reaktion, wieder andere in der Textverarbeitung, und wieder andere in der Bild- und Mathematikverarbeitung.
Aber nur ein Gehirn reicht nicht aus, um handeln zu können. Zugangsberechtigungen und Kontextverstehen sind die "Hände" von AI-Agenten. Sie verleihen AI-Agenten die Fähigkeit, auf die richtigen Daten zuzugreifen, Handlungen auszuführen und verschiedene Tools zu nutzen, um Ziele zu erreichen. Bei der Anwendung des Kontextverstehens in einer Organisation, insbesondere bei komplexen Geschäftsprozessen, muss der AI-Agent Rollen, Hierarchien, Daten, Systeme und Tools verstehen. Dies beinhaltet die Verwendung von Wissensgraphen, um dem AI-Agenten die Beziehungen zwischen verschiedenen Objekten und Bereichen in den Daten zu vermitteln, sowie die Nutzung von Vektordatenbanken, um dem AI-Agenten die Semantik (d. h. die Ähnlichkeit zwischen Dingen, z. B. dass "Katze" und "Hund" Synonyme sind, während "Cloud Computing" weit davon entfernt ist) zu vermitteln. Es ist auch wichtig, dass der AI-Agent über ein Gedächtnis verfügt. Er muss die Rollen (wer Sie sind), die Programmdokumentation (wie man etwas macht), die semantischen Informationen (verschiedenes Wissen) und die situativen Informationen (was beim letzten Mal passiert ist) speichern können.
Die letzte Ebene ist das Vertrauen. Ohne Vertrauen kann die Massenanwendung von AI-Agenten nicht möglich sein.
Eine Möglichkeit, das Vertrauen zu gewährleisten, ist die Einrichtung von Sicherheitsmechanismen. Beispielsweise können Sie einen Filter für sensible Informationen (d. h. PII, persönliche Identifikationsinformationen) einrichten. Unternehmen möchten, dass solche Informationen nicht geleakt werden, und können daher entsprechende Regeln in den Sicherheitsmechanismen definieren. Die Prüfung der Kontextkonsistenz kann allen AI-Agenten Informationen auf Policy-Ebene geben, z. B. "Unsere Rückgabepolitik ist 90 Tage". Diese Regeln müssen unabhängig vom Modell existieren, damit die Sicherheitsmechanismen immer wirksam sind, unabhängig davon, welches Large Language Model verwendet wird.
"Automatische Inferenzprüfung" ist auch eines der Kernwerkzeuge, um Unternehmen zu befähigen, AI-Agenten zu vertrauen und deren effektive Verbreitung in der Firma zu gewährleisten. Dies ist eine mathematische Prüfungsmethode: Anstatt wie ein Tester unzählige Dreiecke zu zeichnen, um den Satz des Pythagoras zu überprüfen, beweist man ihn mit mathematischen Theoremen. Amazon Web Services hat die Rate von Halluzinationen durch die automatische Inferenz um 99 % reduziert.
Es muss betont werden, dass AI-Agenten derzeit noch in der frühen Entwicklungsphase sind und nicht als "Allheilmittel" angesehen werden sollten. Tatsächlich reicht für Unternehmen, die über vorhersehbare Geschäftsprozesse mit festen Schritten und begrenzten Toolnutzungen verfügen, die Basisautomatisierung oder einfache generative AI-Assistenten aus. Wenn Unternehmen dynamisch Tools auswählen müssen oder die Anpassungs- und Lernfähigkeiten von Agenten nutzen möchten, zeigen Agenten ihre wirklichen Stärken. In diesem Fall können Unternehmen in drei speziellen Bereichen mit dem größten Nutzen beginnen: Softwareentwicklung, Kundensupport und Wissensarbeit.
Beispielsweise hat Thomson Reuters die Code-Modernisierung mit Agentic AI durchgeführt und die Migration von legacy.NET-Code um das Vierfache beschleunigt. Dies ist nicht nur eine Effizienzsteigerung, sondern auch eine Befreiung der Ingenieure von technischen Schulden, damit sie sich auf die Schaffung von neuem Wert konzentrieren können. Amazons Einkaufshelfer Rufus kann hochkontextsensitive Fragen wie "Welche Batterien braucht dieses Spielzeug?" oder "Ist dieses Zubehör mit dem, was ich früher gekauft habe, kompatibel?" beantworten. Die Daten zeigen, dass die Kaufkonversionsrate der Benutzer, die Rufus nutzen, um 60 % gestiegen ist. Das Beispiel der Zahlungspflichten ist ein typisches Szenario für Wissensarbeit und die Behandlung von Ausnahmen: Das traditionelle Ziel der Verarbeitung von Zahlungspflichten (AP) ist die "pünktliche Zahlung", während das Ziel von Agent AP die "Optimierung der Cashflow" sein kann. Er kann je nach Wechselkursfluktuation, der historischen Kreditwürdigkeit des Lieferanten und den Vertragsbedingungen autonom entscheiden, ob er aufgrund der Wechselkursfluktuationen vorzeitig zahlt oder eine Währungshedge-Strategie anwendet, um die Zahlung zu verzögern. Dies ist der Wertsprung von "Schritt-für-Schritt" zu "hoher Autonomie".
Ishit Vachhrajani | Text
Ishit Vachhrajani ist der Leiter für globale Technologie, KI-Analyse und Unternehmensstrategie bei Amazon Web Services.
Dieser Artikel stammt aus dem WeChat-Account "Harvard Business Review" (ID: hbrchinese). Autor: HBR-China. Veröffentlicht von 36Kr mit Genehmigung.