Nvidia ha levantado la tapa de una nueva línea de GPU A100 y H100 refrigeradas por líquido que prometen brindar una mayor eficiencia energética al centro de datos.

Anunciadas en Computex 2022, las nuevas configuraciones se anuncian como «el siguiente paso en la computación acelerada para las GPU de Nvidia», lo que marca la primera vez que la compañía ofrece refrigeración líquida directa en el chip.

Las GPU A100 con refrigeración líquida estarán disponibles en unos meses en formato de tarjeta PCIe y se integrarán en el servidor HGX A100. Mientras tanto, la nueva placa H100 estará disponible en el servidor HGX H100 a partir de principios del próximo año.

El enigma del enfriamiento

Tradicionalmente, los operadores de centros de datos, desde grandes empresas hasta proveedores de la nube, han confiado en el aire acondicionado para evitar que los servidores y otros equipos se sobrecalienten.

Sin embargo, enfriar el aire dentro de un centro de datos es ineficiente y costoso. Y esto es especialmente cierto para las instalaciones ubicadas en climas tropicales (por ejemplo, Hong Kong o Singapur), que están enzarzadas en una batalla interminable con el medio ambiente.

A medida que las organizaciones ponen más énfasis que nunca en la sostenibilidad, la atención se ha centrado en identificar métodos más eficientes para enfriar los centros de datos sin comprometer el rendimiento.

“Los operadores de centros de datos tienen como objetivo eliminar los enfriadores que evaporan millones de galones de agua por año para enfriar el aire dentro de los centros de datos. La refrigeración líquida promete sistemas que reciclan pequeñas cantidades de fluidos en sistemas cerrados centrados en puntos clave”, explicó Nvidia.

“Planeamos admitir refrigeración líquida en nuestras GPU de centro de datos de alto rendimiento y plataformas NVIDIA HGX en el futuro previsible”.

En las pruebas, las nuevas tarjetas A100 refrigeradas por líquido pudieron ejecutar cargas de trabajo idénticas con un 30 % menos de energía. Según los cálculos de Nvidia, la sustitución de servidores solo de CPU que ejecutan cargas de trabajo de IA y HPC por sistemas acelerados por GPU en todo el mundo podría ahorrar hasta 11 billones de vatios-hora de energía.

Otra ventaja es que las GPU refrigeradas por líquido solo ocupan una ranura en un rack de servidor, mientras que sus contrapartes refrigeradas por aire ocupan dos, lo que significa que los operadores tienen la flexibilidad de incluir mucho más cómputo en la misma área.

Nvidia dice que más de una docena de fabricantes de servidores, desde ASUS hasta Gigabyte, Supermicro y más, tienen la intención de incorporar las nuevas tarjetas en sus productos a finales de este año, y los primeros sistemas llegarán al mercado en el tercer trimestre.

  • Este año, Computex vuelve a ser virtual, pero aún le brindaremos las últimas noticias y lanzamientos de TI a medida que ocurren, así que asegúrese de consultar toda la cobertura de Computex 2022 de LaComparacion.
Share This