Nvidia presentó su nuevo chip de CPU Grace desarrollado para infraestructura de inteligencia artificial y computación de alto desempeño en GTC dos mil veintidos.

El nuevo procesador de centro de datos prudente basado en Arm Neoverse de ciento cuarenta y cuatro núcleos es realmente dos chips de CPU conectados a través de la interconexión de chip a chip (C2C) de gran velocidad y baja latencia de la compañía, NVLink.

Grace CPU Superchip de Nvidia complementa su Grace Hopper Superchip que se anunció el año pasado e incluye una CPU y una GPU en una placa principal. Si bien su composición puede ser diferente, los dos superchips comparten exactamente la misma arquitectura de CPU latente, como la interconexión NVLink-CNC.

El creador y director de Nvidia, Jensen Huang, explicó en un comunicado de prensa de qué forma Grace CPU Superchip es ideal para las cargas de trabajo de IA y dijo:

“Ha surgido un nuevo tipo de centro de datos: factorías de IA que procesan y refinan montañas de datos para generar inteligencia. Grace CPU Superchip ofrece el mejor desempeño, ancho de banda de memoria y plataformas de software NVIDIA en un chip y relucirá como la CPU de la infraestructura global de IA.

(Crédito de la imagen: Nvidia)

Nvidia H100 y DGX H100

Dans le but de propulser la prochaine vague de centres de données d’IA, Nvidia a également annoncé sa plate-forme informatique accélérée de nouvelle génération avec l’architecture Nvidia Hoppper qui succède à l’architecture Nvidia Ampere de la société lancée il y a un par de años.

El fabricante de chips aun anunció su primera GPU basada en Hopper con ochenta mil millones de transistores. El Nvidia H100 es el acelerador más grande y poderoso del mundo hasta la data y, de la misma manera que el superchip de CPU Grace, asimismo cuenta con una interconexión NVLink para avanzar en enormes modelos de lenguaje de IA, recomendaciones de sistemas, genómica y gemelos digitales complejos.

Para las compañías que desean aún más potencia, la DGX H100 de Nvidia (su sistema DGX de cuarta generación) cuenta con 8 GPU H100 y puede ofrecer treinta y dos petaflops de desempeño de IA con la nueva precisión FP8. Esto da la escala precisa para cumplir con las demandas computacionales masivas de los grandes modelos de lenguaje, los sistemas de recomendación, la investigación en salud y la ciencia del tiempo. Cabe indicar que todas y cada una de las GPU de los sistemas DGX H100 de Nvidia están conectadas a través de NVLink para otorgar una conectividad de novecientos GB/s.

La nueva arquitectura Hopper de la compañía ya recibió un extenso apoyo de la industria de los primordiales distribuidores de computación en la nube y Alibaba Cloud, AWS, Baidu AI Cloud, Google Cloud, Microsoft Azure, Oracle Cloud y Tencent Cloud planean ofrecer instancias basadas en H100. Al tiempo, Cisco, Dell Technologies, HPE, Inspur, Lenovo y otros fabricantes de sistemas planean lanzar servidores con aceleradores H100.

Se espera que la GPU H100 de Nvidia esté libre en todo el mundo a finales de este año a través de distribuidores de servicios en la nube, fabricantes de computadoras y de forma directa de la propia empresa.

Share This