Google aprovechó la apertura de su conferencia Cloud Next, celebrada el 22 de abril en Las Vegas, para redefinir su enfoque en inteligencia artificial aplicada a empresas. La compañía anunció Gemini Enterprise Agent Platform, una propuesta que sitúa a los agentes de IA como pieza central de su estrategia en la nube. Junto a esta plataforma, también presentó nuevas generaciones de procesadores TPU. El conjunto de anuncios refleja un cambio de prioridad: del desarrollo de modelos a su integración directa en procesos empresariales.

Una plataforma que amplía el alcance de Vertex AI

Con esta iniciativa, Google integra sus servicios existentes de Vertex AI en una estructura más amplia orientada a la gestión de agentes. Según la información difundida por la empresa, la plataforma combina herramientas de selección de modelos, entrenamiento y ajuste con capacidades de orquestación, seguridad y operación. Reuters recogió declaraciones del consejero delegado de Google Cloud, Thomas Kurian, quien señaló que la fase experimental ha quedado atrás, marcando el paso hacia implementaciones en producción.

Google indicó que el número de usuarios activos mensuales de pago de Gemini Enterprise creció un 40 % en el primer trimestre respecto al anterior. Este dato apunta a una adopción creciente por parte de clientes empresariales. La plataforma, además, no se limita a modelos propios. Incluye compatibilidad con soluciones de terceros, como Claude Opus 4.7 de Anthropic, lo que permite a las organizaciones utilizar distintos modelos dentro de un mismo entorno operativo.

Nuevos TPU para entrenamiento e inferencia

En el plano de hardware, Google presentó los aceleradores TPU 8t y TPU 8i. El primero está orientado al entrenamiento de modelos de gran escala y, según la compañía, ofrece una capacidad de cálculo significativamente superior a la generación anterior. En configuraciones que alcanzan los 9.600 chips, estos sistemas pueden operar como superpods con una potencia de hasta 121 exaflops y memoria compartida en el rango de petabytes.

El TPU 8i, por su parte, está diseñado para tareas de inferencia, es decir, para ejecutar modelos en escenarios reales. Google afirma que proporciona una mejora del 80 % en rendimiento por dólar frente a su predecesor. Esta diferenciación responde a las necesidades de las empresas, que no solo entrenan modelos, sino que requieren ejecutarlos de forma continua en aplicaciones y servicios.

Las decisiones anunciadas en Cloud Next reflejan un cambio en la competencia entre proveedores de nube. Frente a estrategias centradas en herramientas para desarrolladores o funciones aisladas, Google plantea un enfoque basado en la gestión integral de procesos mediante agentes de IA. La compañía intenta posicionarse como proveedor de infraestructuras capaces de soportar operaciones empresariales completas apoyadas en inteligencia artificial. Parte de las novedades dirigidas a desarrolladores se esperan para la conferencia Google I/O prevista en mayo.