StartseiteArtikel

Warum scheitern 95 % der Unternehmens-Künstliche-Intelligenz-Projekte: Architekturprobleme, die niemand eingestehen will

王建峰2025-12-01 14:29
Warum scheitern 95 % der Unternehmens-Künstliche-Intelligenz-Projekte: Architekturprobleme, die niemand eingestehen will

In 2024 haben Unternehmen 36,5 Milliarden US - Dollar in den Bereich Künstliche Intelligenz investiert, wobei 95 % dieser Investitionen erfolglos blieben.

Das Muster ist überall gleich: Komplexe Modelle, schlechte Infrastruktur und kein Return on Investment. Die KI - Branche hat Unternehmen zunächst mit Modellen verkauft, während Unternehmen tatsächlich ein Betriebssystem brauchen. Heute betreiben Unternehmen Produktionsworkloads auf experimenteller Infrastruktur, die in der Praxis an ihre Grenzen stößt.

Das ungenannte Infrastrukturproblem im Wert von 64,4 Milliarden US - Dollar

Eine kürzlich veröffentlichte Studie des Massachusetts Institute of Technology zeigt, dass 95 % der Pilotprojekte für generative Künstliche Intelligenz nicht den erwarteten Wert erzielen konnten. Die McKinsey Company hat festgestellt, dass trotz hoher Investitionen 99 % der Unternehmen noch nicht den Reifegrad in Bezug auf Künstliche Intelligenz erreicht haben. Gartner prognostiziert, dass die KI - Ausgaben bis 2025 auf 64,4 Milliarden US - Dollar steigen werden, was einem Anstieg von 76 % gegenüber dem Vorjahr entspricht. Aber wo liegt der eigentliche Wert?

Was niemand sagt: Ihr Problem liegt nicht bei den Modellen, sondern bei der Infrastruktur.

Die gesamte KI - Branche ist wie ein Hundekot, der mit Zeitung bedeckt wird, und dann wundert man sich, warum es immer noch stinkt. Sie haben die Art der Arbeitskoordination nicht neu überdacht, sondern einfach konversationale KI auf die bestehende Chaotik aufgesetzt und erwartet, dass dies Veränderungen bringen würde. Wenn die KI keine Ergebnisse liefert, schieben sie die Schuld auf die Technologie selbst, anstatt zu erkennen, dass ihre gesamte Architektur nicht mit der tatsächlichen Funktionsweise von KI - Systemen kompatibel ist.

Es ist ein Architekturproblem, kein KI - Problem.

Die Carnegie Mellon University hat eine Studie über Futurismus veröffentlicht, die zeigt, dass KI - Agenten bei der Ausführung einfacher Aufgaben schlecht abschneiden - die Erfolgsquote liegt nur bei 20 %, und die durchschnittlichen Kosten pro Aufgabe betragen bis zu 6 US - Dollar. Die Forscher haben versucht, die KI zu einer virtuellen Bürotour zu bringen, Termine zu planen, Leistungsbewertungen zu schreiben und das Dateisystem zu durchsuchen. Das Ergebnis war ein totaler Fiasko.

Aber niemand bemerkt das: Es ist kein KI - Fehler, sondern eine Architekturmängel.

Sie versuchen, die KI dazu zu bringen, Supporttickets zu lesen, Leistungsbewertungen neu zu generieren, Einträge im Kalender hinzuzufügen und Slack - Kanäle zu besuchen. Nach dem Scheitern beschuldigen sie die KI, Halluzinationen zu haben. Aber tatsächlich simulieren sie mit der KI die menschliche Bürokratie.

Denken Sie darüber nach, wie diese Aufgabe eigentlich aussehen sollte: Eine JSON - Datei, die alle für die KI erforderlichen Dateiverweise enthält. Der gesamte Prozess würde nur 3 Minuten dauern und fast keine Kosten verursachen. Stattdessen haben sie ein System entworfen, das die KI dazu bringt, den menschlichen Arbeitsablauf zu kopieren - das Interface zu durchsuchen, Slack - Kanäle zu besuchen, in der virtuellen Büroumgebung zu klicken - und dann sind sie überrascht, wenn das System nicht richtig funktioniert.

Das ist wie wenn Sie eine Gruppe Flugingenieure mit Amnesie anheuern, um ein Flugzeug zu bauen. Sie sagen ihnen etwas, und sie vergessen es sofort. Dann stürzt das Flugzeug beim Start ab, und Sie sind überrascht.

Warum Mehr - Agenten - Frameworks fehlschlagen

Ein typisches Mehr - Agenten - Framework würde eine einfache Aufgabe wie folgt behandeln: Markierungen aus Readwise abrufen, ein Gliederungsdokument erstellen und eine Zusammenfassungsemail senden. Das sollte einfach sein - es sollte nur etwa 30 Sekunden Ausführungszeit in Anspruch nehmen. Drei Aktionen.

Das Mehr - Agenten - Framework - Ansatz würde folgendes bereitstellen:

Ein Planungsagent zur Aufgabezerlegung

Ein Forschungsagent zur Analyse von Hintergrundinformationen

Ein Agent zur Abfrage von Markierungsinformationen

Ein Schreibagent zur Generierung der Zusammenfassung

Ein Dokumentenerstellungsagent zur API - Aufrufung

Ein E - Mail - Planungsagent zur Aufbau der E - Mail - Struktur

Ein E - Mail - Sendeagent zur Durchführung der Zustellung

Sieben Agenten. Drei Aktionen ausführen.

Keine vernünftige Firma würde 7 Personen für diese Aufgabe anheuern. Höchstens zwei. Aber wenn ein Mehr - Agenten - Framework 7 Agenten benötigt, um eine Aufgabe zu erledigen, die zwei Personen erledigen könnten, ist es schwer zu sagen, dass dies die Effizienz erhöht.

Die Frage, die niemand stellt, ist: Wie funktioniert diese Koordinierungsmechanik überhaupt? Jeder Agent muss wissen, was der vorherige Agent getan hat. Sie koordinieren sich über konversatorische Übergaben - die Agenten senden Nachrichten aneinander, und ein Agent „sagt“ dem nächsten, was er tun soll. Es gibt kein zentralisiertes Muster zur Definition des Arbeitsablaufs und keine explizite Zustandsverwaltung. Nur autonome Agenten verhandeln über die nächste Aktion.

Eine endlose Schleife im Wert von 47.000 US - Dollar: Was passiert, wenn die Architekturentwurf fehlschlägt

Ein Mehr - Agenten - System in einer Produktionsumgebung ist in eine endlose Gesprächsschleife geraten. Zwei Agenten haben 11 Tage lang kontinuierlich miteinander „gesprochen“ und vor der Entdeckung API - Kosten im Wert von 47.000 US - Dollar verursacht.

Dies ist kein Einzelfall, sondern eine notwendige Folge der konversationsbasierten Koordination.

Erste Woche: API - Kosten von 127 US - Dollar. Normal scheint es.

Zweite und dritte Woche: Die Kosten steigen stetig, aber es sind keine Alarme konfiguriert.

Vierte Woche: 18.400 US - Dollar. Erst nach Erhalt der Rechnung wird es bemerkt.

Die Agenten sind nicht fehlerhaft. Sie funktionieren „normal“ - sie führen einfach unendliche Gespräche über Marktforschung durch, ohne jemals die eigentliche Aufgabe zu erledigen. Es gibt keinen Fehlerzustand und kein Abschlussignal. Es sind einfach zwei Agenten in einer rekursiven Konversation geraten, die niemand bemerkt hat.

Warum ist kein Notstoppschalter eingerichtet? Warum konnte es 11 Tage lang unentdeckt laufen?

Weil das Mehr - Agenten - Framework nur eine sehr begrenzte Beobachtbarkeit bietet. Die LangSmith - Steuerkonsole von LangChain zeigt nur einige grundlegende Metriken: Welche Agenten laufen, Erfolg/Failure - Status, die Gesamtzahl der verbrauchten Token. Aber es wird nicht angezeigt: Die Echtzeit - Tokenverbrauchsrate, die Anzahl der Gesprächsschleifen jedes Agenten und die feingranulare Ausführungstracking - Informationen, die es ermöglichen, dass zwei Agenten in eine rekursive Konversation geraten.

Das System zeigt „In Betrieb“, es gibt keinen Fehlerzustand. Vom Dashboard aus sieht alles normal aus - die Kundendienstmitarbeiter kommunizieren, die Token werden verbraucht, es wird kein Fehler markiert. Da es keine Echtzeitüberwachung der Gesprächsmuster oder der Tokenverbrauchsgeschwindigkeit gibt, bemerkt das System erst nach Erhalt der monatlichen Rechnung, dass die Kundendienstmitarbeiter in eine endlose Schleife geraten sind.

Und es wird noch schlimmer: Die Anbieter von Sprachmodellen bekommen sowieso ihr Geld. Wenn Ihre Agenten in eine endlose Schleife geraten und ständig API - Kosten verursachen, profitieren OpenAI und Anthropic von diesen verschwendeten Rechenressourcen. Sie haben weder eine Rechenschaftspflicht noch einen Anreiz, dieses Verhalten zu verhindern. Es ist eigentlich ein lukratives Betrugsgeschäft für sie - die fehlende Transparenz bedeutet, dass die Kosten außer Kontrolle geraten, was zu mehr Einnahmen führt.

Warum cloudbasierte Systeme nicht sehen können, was passiert

Es gibt eine wichtige Architekturbeschränkung, die kaum bekannt ist: Wenn Ihr gesamtes System cloudbasiert ist, ist Ihre Beobachtbarkeit auf die Informationen beschränkt, die der LLM - Anbieter offenlegt. Sie sind ganz in seiner Hand. Sie können nur sehen, was er in den Nutzungsdiagrammen zeigt, und diese Diagramme bieten eigentlich nichts.

Wenn Sie die Cloud - API verwenden, können Sie nur sehen, was der Dienstleister Ihnen zeigen möchte. Und er hat keinen Anreiz, Transparenz zu gewährleisten - es ist für ihn lukrativer, wenn Sie erst nach Erhalt der Rechnung feststellen, dass die Kosten sprunghaft gestiegen sind.

Das Kernproblem, das die Unternehmens - KI - Implementierung behindert

Der grundlegende Grund für das Scheitern der Unternehmens - KI - Implementierung liegt nicht an der mangelnden Intelligenz der Modelle, sondern an Architekturmängeln. Wenn 95 % der KI - Pilotprojekte scheitern und Unternehmen 47.000 US - Dollar in einer endlosen Schleife verschwenden, liegt das Problem nicht daran, dass GPT - 4 nicht intelligent genug ist, sondern daran, dass Unternehmen Systeme auf einer wackligen Architektur aufbauen: Unstrukturierte Daten führen zu unbewältigbaren Verarbeitungen; Menschen werden an den falschen Stellen entfernt; Die Ziele sind unklar, so dass selbst Menschen die Aufgabe nicht ausführen können; Es besteht eine völlige Unfähigkeit, die tatsächliche Betriebssituation zu beobachten; Und Mehr - Agenten - Frameworks, die Chatbots verwenden, um die menschliche Bürokratie zu simulieren, anstatt die Koordinationsaufwendungen vollständig zu eliminieren.

Das Problem der Datenstruktur: Die Hoffnung, aus Chaos Alchemie zu zaubern

Unternehmen glauben, dass sie, wenn sie einfach TB an unstrukturierten Daten in einen Ordner schieben, von der KI erwarten können, dass sie nützliche Informationen aus dem Rauschen herausfindet. Sie werfen Jahre an Slack - Gesprächsaufzeichnungen in den Trainingssatz, und verstehen nicht, warum die KI ihre „Markenstimme“ nicht erfassen kann. Sie werfen Millionen von Dokumenten an das Modell und erwarten, dass das Modell ein klares Verständnis der Geschäftsprozesse hat.

Aber Sie erwarten, dass das Modell wie ein Alchemist agiert, und die Datenstruktur macht dies fast unmöglich.

Selbst Menschen brauchen strukturierte Informationen, um sie umsetzen zu können. Das ist der Grund, warum die „Zweite Hirn“ - Methodik funktioniert - es macht das Wissen zugänglich und umsetzbar. Wenn Informationen nicht strukturiert sind, um zugänglich zu sein, können Menschen auch nicht effektiv zusammenarbeiten.

Stellen Sie sich jetzt vor, dass Sie dasselbe Problem auf komplexe, mehrstufige Arbeitsabläufe erweitern und die KI einsetzen, um es zu lösen. Jemand gibt der KI einen vagen Hinweis, und sie reagiert, weil das ihre Aufgabe ist, und dann setzen Sie sie in großem Maßstab ein. Eine unstrukturierte, chaotische Datenarchitektur ist genauso schlecht wie ein vager Hinweis an die KI - der einzige Unterschied ist, dass Sie jetzt das Problem in komplexen, mehrstufigen Arbeitsabläufen in großem Maßstab angehen.

Das größte Problem, das die Koordination behindert, liegt darin: Der Informationsfluss hat keine klare Struktur. Sie haben nicht definiert, wie die Informationen im System fließen. Sie erwarten, dass die KI wie ein Alchemist agiert und auf magische Weise herausfindet, wo alle Informationen liegen und wie sie verbunden sind. Sie kann es nicht. Niemand kann es.

Das Fehlschluss der Eliminierung des menschlichen Faktors

Das Massachusetts Institute of Technology hat festgestellt, dass über 50 % der Unternehmensausgaben für Künstliche Intelligenz für Verkaufs - und Marketinganwendungen verwendet werden - Chatbots, Inhaltsgenerierung, Leads - Bewertung. Aber das, was am besten den Return on Investment misst, ist die Back - Office - Automatisierung: Rechnungsbearbeitung, Datenabgleich, Compliance - Arbeitsabläufe.

Sie wählen die Entwicklung von coolen, kundenzugänglichen Anwendungen anstatt der langweiligen, aber tatsächlich kostensparenden Back - Office - Arbeit. Warum? Aus zwei Gründen:

Sie sind in die Irre von „den Menschen aus dem Prozess entfernen“ geraten.

Sie sind Idioten

Der grundlegende Missverständnis liegt darin: Das Ziel ist nicht, die Menschen völlig auszuschließen, sondern sie an die Stellen zu bringen, wo sie tatsächlich Wert schaffen.

Nehmen Sie die Inhaltsgenerierung als Beispiel: Sie können die KI dazu bringen, einen kompletten Blogbeitrag von Grund auf neu zu generieren. Der von ihr generierte Text hat eine korrekte Grammatik, aber der Inhalt ist mittelmäßig und fehlt an einer deutlichen persönlichen Stil und Perspektive. Dies ist das sogenannte „Entfernen des Menschen aus dem Prozess“ - und diese Methode scheitert, weil kreative Anleitung und persönlicher Stil auf Menschen angewiesen sind.

Eine bessere Lösung: Menschen geben Einsichten, Beispiele und Richtungen; Die KI baut den Rahmen und schreibt den Entwurf; Menschen überprüfen und verbessern ihn. Diese zyklische Zusammenarbeit kann bessere Ergebnisse erzielen, weil Menschen an der richtigen Stelle sind - sie geben Urteile, Ausdruck und kreative Anleitung, anstatt Buchstabe für Buchstabe zu tippen.

Back - Office - Automatisierungsabläufe wie die Rechnungsbearbeitung erfordern keine menschliche Intervention oder Sprachinput. Das Abgleichen von Bestellungen mit Rechnungen ist ein deterministischer Arbeitsablauf, in dem der menschliche Faktor keine Rolle spielt. Es sollte vollständig automatisiert werden.

Die kundenzugängliche Inhaltsgenerierung erfordert die Stimme und das Urteil von Menschen. Das ist der Ort, wo Menschen Wert schaffen. Die KI sollte unterstützen, nicht ersetzen.

Unternehmen machen es genau umgekehrt. Sie versuchen, Menschen aus den Bereichen zu entfernen, die menschliche Intervention erfordern, und lassen sie in Bereichen, wo sie keinen Wert schaffen, zurück.

Das Problem der erwarteten Ausgabe: Warum vage Ziele zwangsläufig zum Scheitern führen

Beobachten Sie, wie Menschen mit der KI interagieren und frustriert über die Ergebnisse sind. Normalerweise liegt das Problem nicht an der KI selbst, sondern daran, dass die Anfrage so vage ist, dass selbst Menschen sie schwer verstehen können. Wenn Menschen das Ziel nicht verstehen können, kann auch das Sprachmodell es nicht verstehen.

Ob ein KI - System erfolgreich läuft, hängt oft von der Aufgabendefinition ab. Jede ausführbare Aufgabe benötigt drei Bestandteile:

Aufgabenidentifikator - Was ist das?

Prozessbeschreibung - Was muss passieren?

Erwartete Ausgabe - Wie sieht Erfolg aus?

Der dritte Faktor ist der Punkt, an dem die meisten Unternehmen scheitern. Sie definieren den Prozess, aber nicht das Ergebnis.

Unklarheit: „Bearbeiten Sie diesen Artikel“

Was bedeutet „Bearbeiten“? Grammatik? Struktur? Tonfall? Länge?

Die KI wird raten, aber es ist wahrscheinlich, dass sie falsch rät.

Das Ergebnis erfordert mehrere Überarbeitungen.

Ausführbares Ziel

Löschen Sie langatige Sätze. Sätze, die gelöscht werden müssen: Wenn drei aufeinanderfolgende Sätze mit „Diese Menschen“ oder