La NVIDIA H200 no es una GPU nueva presentada en abril de 2026. Nvidia la anunció en noviembre de 2023 como una evolución de Hopper con memoria HBM3e, y desde entonces se ha incorporado a instancias y sistemas de varios proveedores cloud. La noticia debe leerse con esa precisión: H200 sigue siendo una pieza importante para inferencia y HPC, pero su despliegue forma parte de una transición más amplia hacia Blackwell y Rubin.

Qué aporta la H200

La H200 destaca por su memoria. Según Nvidia, es la primera GPU de la compañía con HBM3e y ofrece 141 GB de memoria con 4,8 TB/s de ancho de banda. Esa cifra casi duplica la capacidad de la H100 y aumenta el ancho de banda de memoria, lo que ayuda especialmente en modelos de lenguaje grandes, inferencia de contexto largo y cargas HPC que dependen mucho del movimiento de datos.

La propia página de producto de Nvidia sitúa la H200 como una GPU para IA generativa y computación de alto rendimiento. En sus materiales, la compañía habla de mejoras frente a H100 en inferencia Llama 2 70B, GPT-3 175B y ciertas cargas HPC. Esas cifras son datos del proveedor, por lo que deben tratarse como referencia técnica de Nvidia, no como prueba independiente para todos los casos reales.

Disponibilidad en la nube

La adopción cloud ya no es una promesa abstracta. AWS anunció instancias EC2 P5e con ocho GPU H200 en 2024. Microsoft documenta la serie ND H200 v5 para cargas de IA y HPC, con ocho GPU H200 por máquina virtual, NVLink e interconexión InfiniBand. Google Cloud también lista tipos de máquina con H200 en su documentación de GPU. Esto confirma que H200 está presente en grandes plataformas, aunque la disponibilidad concreta depende de región, cuota y capacidad.

Ese último matiz es clave. Que una GPU exista en el catálogo no significa que cualquier cliente pueda conseguir capacidad inmediata. Las cargas de IA compiten por GPU, energía, red y espacio físico. Por eso conviene hablar de disponibilidad y despliegue con cuidado, sin afirmar que todo el mercado recibió unidades de forma masiva en una fecha concreta.

El contexto de 2026

En 2026, H200 convive con Blackwell y con la hoja de ruta Rubin. Blackwell ofrece una arquitectura más nueva para sistemas de IA a escala de rack, mientras H200 sigue siendo útil en escenarios donde la memoria adicional frente a H100 aporta valor y donde la infraestructura Hopper ya está instalada. Para muchos equipos, la decisión no será "H200 o Blackwell" de forma abstracta, sino qué capacidad está disponible, a qué precio y con qué compatibilidad de software.

También hay un componente geopolítico. El acceso a H200 en China ha estado sujeto a restricciones de exportación, licencias y decisiones regulatorias. Por eso cualquier afirmación sobre "despliegue global" debe matizarse: la GPU está disponible en plataformas internacionales, pero no todos los mercados reciben el mismo acceso ni en las mismas condiciones.

Qué significa para empresas y desarrolladores

Para empresas que ejecutan modelos grandes, H200 sigue siendo atractiva por memoria, ancho de banda y compatibilidad con el ecosistema CUDA. Puede reducir la necesidad de dividir ciertos modelos entre más GPU y mejorar la eficiencia en cargas limitadas por memoria. Pero no sustituye por sí sola una buena arquitectura de inferencia, planificación de costes y optimización de software.

La forma correcta de leer el movimiento es práctica: H200 es una opción madura de la generación Hopper para IA generativa y HPC, disponible en varios entornos cloud, mientras el mercado avanza hacia Blackwell. Su valor en 2026 dependerá menos del anuncio original y más de la capacidad real que cada proveedor pueda ofrecer a buen precio.