Nvidia presentó el H200, una unidad de procesamiento gráfico diseñada para entrenar y también implementar modelos de inteligencia artificial, que estará disponible durante el segundo trimestre de 2024. La nueva GPU es una actualización del H100, el chip que OpenAI utilizó para entrenar a ChatGPT-4.
La mejora clave con el H200 es que incluye 141 GB de memoria “HBM3” de próxima generación. La compañía afirmó que con este nuevo chip se alcanzará una producción casi dos veces más rápida que el H100.
Los chips H100 cuestan entre $25,000 y $40,000 dólares, según una estimación de Raymond James, y se necesitan miles de ellos trabajando juntos para crear los modelos más grandes en un proceso llamado “entrenamiento”. Aún no se conocen los precios del H200 pero se espera que sea más costoso que su predecesor.
El entusiasmo por las GPU de IA de Nvidia ha provocado una gran demanda por las acciones de la compañía, que han subido más del 230% en lo que va de 2023. El gigante tecnológico espera alrededor de $16 mil millones de dólares de ingresos para su tercer trimestre fiscal, es decir, un 170% más que hace un año.
El H200 competirá con la GPU MI300X de AMD.
Nvidia confirmó que el H200 será compatible con el H100, lo que significa que las empresas de IA que utilizan el modelo anterior no necesitarán cambiar sus sistemas para usar la nueva versión.