StartseiteArtikel

Google verbrennt 185 Milliarden US-Dollar pro Jahr und will das "Unternehmens-Windows" der Agenten-Ära werden.

极客公园2026-04-23 18:25
Kommend die Betriebssysteme für das Zeitalter der Agenten?

Am 22. April findet in Las Vegas die Google Cloud Next 2026 in vollem Gange statt.

Wer das jährliche Produktions- und Veröffentlichungsrhythmus von Google kennt, weiß, dass bei der I/O-Konferenz über Mobiltelefone, Android und verschiedene neue Produkte gesprochen wird, die die Welt verändern sollen. Die Next-Konferenz hat einen völlig anderen Stil. Sie richtet sich direkt an Unternehmenskunden und konzentriert sich auf die Erstellung von Cloud-Infrastrukturen und die Integration von KI in die Produktionsumgebung.

Wenn man die Next-Konferenzen der letzten vier Jahre miteinander verknüpft, wird eine immer klarere Evolutionskurve der Google Cloud in der KI-Ära sichtbar:

Im Jahr 2023 präsentierte die Google Cloud PaLM 2 und Duet AI. Das Thema war „Einsatz von Large Language Models in Cloud-Diensten“. Im Jahr 2024 trat Gemini 1.5 Pro auf, und Vertex AI begann sich in Richtung Agent Builder zu entwickeln. Das Thema wechselte zu „Schaffung einer Plattform für die Entwicklung von KI-Anwendungen für Entwickler“. Im Jahr 2025 wurden das ADK und das A2A-Protokoll veröffentlicht, und Agentspace ging live. Die Google Cloud begann mit der Schaffung der Infrastruktur für die Zusammenarbeit zwischen Agenten.

In diesem Jahr wurden alle diese in verschiedenen Jahren und Produktlinien verstreuten Elemente in ein einziges Produkt zusammengeführt: Gemini Enterprise.

Im Laufe der vier Jahre wechselte das Thema der Next-Konferenz von „Einsatz von Large Language Models in Unternehmen“ über „Agent-Entwicklungstools“ hin zu „Aufbau einer Agent-Ekologie“. Im Jahr 2026 bauen diese bisherigen Anstrengungen auf ein größeres Ziel auf: Die Definition des Betriebssystems der Agenten-Ära.

Thomas Kurian, CEO der Google Cloud, formulierte dieses Ziel auf der Bühne so: „Man kann keinen echten Mehrwert schaffen, indem man fragmentierte Chips und inkohärente Modelle zusammenfügt. Man braucht eine Architektur, bei der die Chips für die Modelle entwickelt werden, die Modelle auf den eigenen Daten basieren, die Agenten und Anwendungen mit diesen Modellen aufgebaut werden und die Infrastruktur die Sicherheit gewährleistet.“

Das ist, was wir auf dieser Next-Konferenz gesehen haben. Die Google Cloud definiert nicht nur neue Produkte, sondern auch die Unternehmens-KI-Technologiearchitektur neu: In einer Agenten-Ära, in der menschliche Mitarbeiter mit zahllosen digitalen Mitarbeitern zusammenarbeiten, hat derjenige, der die Steuerungseinheit für Unternehmens-Intelligenzagenten besitzt, das Betriebssystem dieser Ära in der Hand.

Gemini Enterprise: Vom Intelligenzassistenten zum Betriebssystem für Agenten

Um das Kernprodukt dieser Next-Konferenz zu verstehen, muss zunächst ein leicht verwechselbares Problem geklärt werden: Das Gemini Enterprise, das auf dieser Konferenz vorgestellt wurde, ist nicht dasselbe wie das, das im vergangenen Herbst veröffentlicht wurde.

Im Oktober des vergangenen Jahres wurde das Gemini Enterprise von der Google Cloud als „Bringer der besten KI-Fähigkeiten von Google an jeden Mitarbeiter eines Unternehmens“ eingeführt. Im Grunde war es damals eine Unternehmensversion eines KI-Anwendungs-Eingangs, in dem Mitarbeiter chatten, Fragen stellen und Inhalte generieren konnten. Im Wesentlichen war es ein Chatbot.

Auf dieser Next-Konferenz wurde das Gemini Enterprise Agent Platform vorgestellt, dessen Natur sich grundlegend geändert hat. Es ist nicht mehr nur ein Werkzeug für Menschen, sondern eine vollständige Verwaltungspfaltform zur Erstellung, Bereitstellung, Orchestrierung, Governance und Überwachung von Agenten.

Dies ist auch ein Thema, das in den letzten Monaten nach dem Erfolg von Produkten wie OpenClaw und Hermes in der Branche diskutiert wurde: Wenn Unternehmen von der „Pilotierung einiger KI-Projekte“ zu der „Betrieb von unzähligen Agenten und KI-Projekten in der Produktionsumgebung“ übergehen, brauchen sie nicht mehr nur ein Chatfenster, sondern ein Unternehmens-Steuerungssystem. Hierbei ergeben sich neue Chancen in Bezug auf die Fragen, wer Agenten erstellen darf, welche Daten die Agenten zugreifen können, welche Entscheidungen sie treffen, wie man Probleme nachverfolgen kann und wie mehrere Agenten zusammenarbeiten können.

Das Gemini Enterprise Agent Platform wurde genau für diese Fragen entwickelt. Seine Kernkomponenten umfassen:

Agent Studio, mit dem Fachkräfte die Verhaltenslogik von Agenten in natürlicher Sprache definieren können, ohne Code schreiben zu müssen;

Agent Registry, das als einheitlicher Index und Suchportal für alle Agenten eines Unternehmens dient, vergleichbar mit einem „Organisationsverzeichnis“ für Agenten;

Agent Gateway, das ähnlich wie ein Flugverkehrsleitanbieter fungiert, Sicherheitsrichtlinien einheitlich durchführt und jede Interaktion zwischen Agenten und Daten überwacht;

Agent Identity, das jedem Agenten eine eindeutige verschlüsselte Identität und eine überprüfbare Autorisierungsrichtlinie zuweist;

Agent Observability, das eine vollständige Visualisierung des Ausführungswegs und eine feingranulare Telemetrie bietet, damit Manager sehen können, was ein Agent getan hat, wie lange es gedauert hat und welche Werkzeuge er verwendet hat.

Von der Produktsichtweise her stimmt der Entwurf dieser Plattform stark mit der Art und Weise überein, wie Unternehmens-IT-Verwaltungsteams menschliche Mitarbeiter verwalten, wie Einstellung (Erstellung), Zuweisung von Rechten (Identität und Richtlinien), tägliche Verwaltung, Leistungsbewertung usw. Der einzige Unterschied ist, dass die zu verwaltenden Objekte von Menschen zu Agenten geworden sind.

Warum ist das wichtig? Weil es die „Unique Selling Proposition“ von Unternehmensdiensten neu definiert. In der Vergangenheit hat sich das Erzählmodell von Cloud-Anbietern kaum geändert: Auf der untersten Ebene wird um Rechenleistung konkurriert, auf der mittleren Ebene werden Entwicklungsumgebungen verkauft und auf der obersten Ebene werden SaaS-Werkzeuge gebündelt. Selbst mit der KI-Welle haben die meisten Anbieter nur Inkremente in diesem dreistufigen Modell gemacht.

Aber die Google Cloud hat sich dieses Mal aus diesem Rahmen befreit und ein neues Problem als Produktwert definiert: Kann man es einem Unternehmen ermöglichen, seine Kerngeschäftsprozesse tausenden von Agenten anzuvertrauen?

Hinter dieser Frage verbirgt sich eine grundlegende Veränderung der Beschaffungslogik von Unternehmen. In der Vergangenheit war die zentrale Frage bei der IT-Beschaffung von Unternehmen „Kann diese Software mein Problem lösen?“. Jetzt lautet die Frage: „Kann dieser Agent meine Aufgabe autonom erledigen, und kann ich ihm vertrauen, ihn verwalten und überprüfen?“ Vertrauen, Verwaltung und Überprüfung werden zu neuen Kernkompetenzen von Unternehmensdiensten in der Agenten-Ära. Modelle werden kommerzialisiert, Rechenleistung wird erschwinglicher, aber derjenige, der Unternehmen dabei hilft, ihre digitalen Mitarbeiter zu verwalten, behält die Kunden.

Dies wurde bereits an den Kunden der Google Cloud bestätigt. Walmart hat auf der Next-Konferenz sein Fallbeispiel geteilt. Sie haben das Gemini Enterprise an Filialleiter verteilt und in Kombination mit Pixel Fold-Geräten eingesetzt, sodass die Führungskräfte in wenigen Sekunden Betriebsdaten erhalten können, die sonst Stunden dauern würden, zusammenzustellen. Die Logik von Walmart ist einfach: Der Wert eines Filialmanagers liegt nicht darin, Lagerberichte zusammenzustellen, sondern darin, mit Kunden zu kommunizieren und das Team zu motivieren. Wenn die KI die erste Aufgabe übernimmt, kann sich der Mensch auf die zweite konzentrieren.

Die deutsche Versicherungsgesellschaft Signal Iduna hat binnen wenigen Wochen eine KI-Nutzungsrate von 80 % erreicht. 11.000 Mitarbeiter erstellen derzeit spezialisierte Agenten in ihren jeweiligen Bereichen. Der Gesundheitsversicherungs-Agent kann beispielsweise auf der Grundlage von komplexen Versicherungsdaten aus einem Jahrhundert die Versicherungsdeckung automatisch überprüfen, und die Antwortzeit ist um 37 % schneller. KPMG hat in der ersten Monat eine Mitarbeiterakzeptanzrate von 90 % erreicht und über hundert Agenten erstellt.

Das gemeinsame Muster hinter diesen Zahlen ist: Das Gemini Enterprise ersetzt nicht den Menschen, sondern bringt ihn zurück zu wertvolleren Aufgaben. Aber die Voraussetzung für die Skalierbarkeit dieses Prozesses ist, dass Unternehmen ein vertrauenswürdiges Agenten-Verwaltungssystem haben. Dies ist das Kernproblem, das das Gemini Enterprise Agent Platform löst.

Fünfstufige Architektur: Die „Grundlage“ des Betriebssystems der Google Cloud für die Agenten-Ära

Wenn das Gemini Enterprise Agent Platform das Kernprodukt dieser Konferenz ist, wird es von einer fünfstufigen Technologiearchitektur unterstützt, die von der Google Cloud auf der Bühne präsentiert wurde. Von den untersten Chips bis zu den vordefinierten Agenten auf der obersten Ebene versucht die Google Cloud, alle erforderlichen Fähigkeiten für den Betrieb von Agenten in Unternehmen in einem vertikal integrierten Paket zu liefern.

Kurian hat es auf der Bühne in fünf Stufen aufgeteilt: KI-Supercomputer (AI Hypercomputer), Agenten-Datencloud (Agentic Data Cloud), Agenten-Sicherheit (Agentic Defense), Agenten-Plattform und -Modelle (Agentic Platform and Models) sowie Agenten-Orchestrierungsteam (Agentic Taskforce).

Erste Stufe: KI-Supercomputer (AI Hypercomputer)

In der KI-Ära ist Rechenleistung immer die wichtigste Infrastruktur. Daher war der Fortschritt der TPU eines der Highlights dieser Konferenz. Die Google Cloud hat die achte Generation der TPU vorgestellt, die erstmals in zwei spezielle Plattformen für Training und Inferenz aufgeteilt wurde. Die Trainingsversion der TPU kann über eine 3D-Topologie auf bis zu 9.600 TPU erweitert werden, und die Rechenleistung ist um das 2,8-fache gesteigert. Eine einzelne Supercomputereinheit bietet 2 PB Speicherplatz. Laut Angaben reicht diese Kapazität aus, um die digitale Sammlung der US-Kongressbibliothek 100 Mal zu speichern.

Bei der Inferenzplattform hat die Google Cloud auf Chip-Ebene eine spezielle „Beschleunigungsmaschine“ integriert, die die Latenzzeit um das 5-fache reduziert. Über eine neue 4,5-Topologie können 1.152 TPU zu einem Cluster mit geringer Latenz zusammengefügt werden, das Millionen von Agentenaufrufen nahezu verzögerungsfrei und parallel antworten kann.

Zusätzlich hat die Google Cloud die Virgo-Netzwerkarchitektur vorgestellt, die die Verbindungsbandbreite verdoppelt und es ermöglicht, dass ein einzelnes Cluster über 1 Million TPU-Chips kooperativ betreiben kann.

Außerdem hat die Google Cloud angekündigt, einer der ersten Cloud-Anbieter zu sein, der NVIDIA Vera Rubin NBL72-Instanzen anbietet. Diese Instanzen sind für hochinteraktive und langfristige Inferenz optimiert, und die Leistungseffizienz ist um das 10-fache gesteigert.

Auf Modalebene unterstützt die Plattform weiterhin die Einbindung von Drittmodellen, einschließlich des Anthropic Claude Opus 4.7, und macht alle GCP-Dienste über das Model Context Protocol (MCP) zugänglich, sodass Agenten direkt auf Cloud-Ressourcen zugreifen können.

Zweite Stufe: Agenten-Datencloud (Agentic Data Cloud)

Dies ist das „Gehirn“ der von der Google Cloud aufgebauten gesamten System. Es ist die Grundlage für das „Gedächtnis und das Allgemeinwissen“ der Agenten. Es ist für die Umwandlung von versteckten Daten in PDF-Dateien, Videos und Dritt-Cloud-Speichern in geschäftliche Semantik, die von Agenten verstanden werden kann, verantwortlich. Wenn ein Agent das Wort „Reingewinn“ oder „Risiko“ hört, kann er seine genaue Bedeutung in Ihrem Unternehmen verstehen.

Die Google Cloud hat zwei Kernprodukte vorgestellt: Knowledge Catalog und Cross-Cloud Lakehouse.

Das Knowledge Catalog fungiert als allgemeiner Unternehmenskontext-Engine. Sobald eine Datei in den Google Cloud Storage geschrieben wird, greift Gemini automatisch ein, extrahiert Entitäten, bildet Beziehungen ab und versteht die geschäftliche Semantik. Wenn ein Agent das Wort „Reingewinn“ oder „Risiko“ hört, kann er seine genaue Definition in Ihrem Unternehmensdatenmodell feststellen.

Das Cross-Cloud Lakehouse basiert auf dem offenen Iceberg-Standard und ermöglicht es Analyse-Engines wie BigQuery, direkt auf Daten in AWS S3 und Azure zuzugreifen, ohne dass die Daten migriert werden müssen oder Ausgabegebühren anfallen. Dadurch können Agenten über Clouds hinweg einen vollständigen geschäftlichen Kontext erhalten.

Dritte Stufe: Agenten-Sicherheit (Agentic Defense)

Überraschenderweise hat die Google Cloud den Sicherheits