Google a profité de l’ouverture de sa conférence Cloud Next, le 22 avril à Las Vegas, pour redéfinir son positionnement dans l’intelligence artificielle appliquée aux entreprises. Le groupe a annoncé le lancement de Gemini Enterprise Agent Platform, une offre destinée à structurer le déploiement d’agents IA dans les environnements professionnels. En parallèle, Google a dévoilé de nouvelles générations de processeurs TPU. L’ensemble vise à déplacer l’attention du secteur, des démonstrations techniques vers l’intégration directe de l’IA dans les processus métier.
Une plateforme conçue pour organiser l’usage des agents IA
Avec cette annonce, Google étend le périmètre de Vertex AI, désormais intégré dans une architecture plus large dédiée aux agents. Selon les informations communiquées par l’entreprise, la plateforme regroupe des outils de sélection de modèles, d’entraînement et d’optimisation, mais aussi des fonctions d’orchestration, de sécurité et d’exploitation. Reuters rapporte que le directeur général de Google Cloud, Thomas Kurian, a indiqué que la phase expérimentale était désormais dépassée, soulignant un basculement vers des déploiements opérationnels.
Google précise que le nombre d’utilisateurs actifs mensuels payants de Gemini Enterprise a progressé de 40 % au premier trimestre par rapport au trimestre précédent. Cette évolution est mise en avant pour illustrer l’adoption croissante de ces solutions par les entreprises. La plateforme n’est pas limitée aux modèles internes : elle prend également en charge des solutions tierces. Parmi elles figure notamment Claude Opus 4.7, développé par Anthropic, ce qui permet aux clients de combiner différents modèles au sein d’une même infrastructure.
Des TPU pour soutenir l’entraînement et l’exécution
En complément de cette évolution logicielle, Google a présenté deux nouveaux accélérateurs dédiés à l’intelligence artificielle : les TPU 8t et TPU 8i. D’après les éléments fournis par l’entreprise, le TPU 8t est orienté vers l’entraînement de modèles et offrirait une puissance de calcul nettement supérieure à celle de la génération précédente. Dans une configuration comprenant 9 600 puces, un système de type superpod atteindrait 121 exaflops, avec une mémoire partagée de l’ordre du pétaoctet.
Le TPU 8i est, de son côté, conçu pour les tâches d’inférence, c’est-à-dire l’exécution des modèles en conditions réelles. Google affirme que ce composant apporte une amélioration de 80 % des performances par dollar par rapport à la génération antérieure. Cette distinction entre entraînement et exploitation reflète les besoins des entreprises, qui cherchent à la fois à développer des modèles et à les intégrer dans des applications à grande échelle.
Les annonces de Cloud Next mettent en évidence une évolution plus large du marché du cloud. Là où certains acteurs privilégient encore les outils de développement ou les fonctionnalités isolées, Google insiste sur la gestion complète des flux de travail basés sur l’IA. Ce positionnement traduit une volonté de capter la demande des entreprises qui ne se limitent plus à tester des modèles, mais souhaitent les intégrer durablement dans leurs opérations. D’autres annonces, notamment orientées vers les développeurs, sont attendues lors de la conférence Google I/O prévue en mai.