Google hat zum Auftakt der Cloud-Next-Konferenz am 22. April in Las Vegas seine Ausrichtung im Cloud-Geschäft neu justiert und dabei KI-Agenten in den Mittelpunkt gestellt. Das Unternehmen kündigte mit der Gemini Enterprise Agent Platform ein neues Angebot an, das bestehende KI-Dienste bündelt und stärker auf den Einsatz in Unternehmen ausrichtet. Parallel stellte Google neue Generationen seiner TPU-Beschleuniger vor. Die Ankündigungen zielen darauf ab, die Nutzung von Künstlicher Intelligenz von einzelnen Anwendungen hin zu umfassenden Geschäftsprozessen zu verlagern.

Plattform bündelt Modelle und Unternehmensfunktionen

Im Zentrum der Strategie steht die Integration der bisherigen Vertex-AI-Dienste in eine breiter angelegte Plattform für KI-Agenten. Google erklärte, dass die neue Umgebung Funktionen für Modellauswahl, Training und Anpassung mit Werkzeugen für Integration, Betrieb und Sicherheit kombiniert. Laut Reuters sagte Google-Cloud-Chef Thomas Kurian, die Phase reiner Experimente sei abgeschlossen. Der Fokus liege nun darauf, KI-Anwendungen in produktive Abläufe zu überführen.

Nach Angaben des Unternehmens wuchs die Zahl der zahlenden monatlich aktiven Nutzer von Gemini Enterprise im ersten Quartal um 40 Prozent gegenüber dem Vorquartal. Google betont zudem, dass die Plattform nicht auf eigene Modelle beschränkt ist. Neben Gemini-Varianten wie Gemini 3.1 Pro unterstützt das Angebot auch externe Modelle, darunter Claude Opus 4.7 von Anthropic. Diese Öffnung soll Unternehmen ermöglichen, unterschiedliche KI-Systeme innerhalb einer gemeinsamen Infrastruktur zu betreiben.

Neue TPU-Systeme adressieren Training und Betrieb

Die Software-Ankündigungen werden durch neue Hardware ergänzt. Google stellte die Beschleuniger TPU 8t und TPU 8i vor, die unterschiedliche Einsatzbereiche abdecken. Der Hersteller beschreibt TPU 8t als System für das Training großer Modelle mit deutlich gesteigerter Rechenleistung gegenüber der Vorgängergeneration. In einer Konfiguration mit 9.600 Chips erreicht ein sogenannter Superpod laut Google eine Leistung von 121 Exaflops sowie einen gemeinsam genutzten Speicher im Petabyte-Bereich.

Für den produktiven Einsatz von KI-Anwendungen positioniert Google den TPU 8i. Dieser Chip sei auf Inferenzaufgaben ausgelegt und biete laut Unternehmensangaben eine um 80 Prozent bessere Leistung pro eingesetztem Dollar als die vorherige Generation. Damit adressiert Google die Anforderungen von Anwendungen, bei denen Modelle kontinuierlich Anfragen verarbeiten müssen, etwa in automatisierten Geschäftsprozessen oder Kundeninteraktionen.

Die Kombination aus Plattform und Infrastruktur verdeutlicht eine Verschiebung im Wettbewerb der großen Cloud-Anbieter. Während andere Anbieter stark auf einzelne Funktionen oder Entwicklerwerkzeuge setzen, stellt Google die Orchestrierung kompletter Arbeitsabläufe in den Vordergrund. Die Ankündigungen auf der Cloud Next zeigen damit weniger einen Wettlauf um das leistungsfähigste Modell als vielmehr um die Frage, wer Unternehmen eine verlässliche Umgebung für den operativen Einsatz von KI bereitstellen kann. Weitere Details zu entwicklerorientierten Funktionen werden im Rahmen der Google-I/O-Konferenz im Mai erwartet.