Pasar al contenido principal

Supermicro amplía sus soluciones de IA con las próximas plataformas NVIDIA HGX H200 y MGX Grace Hopper con memoria HBM3e

Supermicro amplía sus líneas de productos MGX, 4-GPU y 8-GPU con soporte para NVIDIA HGX H200 y Grace Hopper Superchip para aplicaciones LLM con memoria HBM3e más rápida y de mayor capacidad - El nuevo e innovador servidor Supermicro de 4U con refrigeración líquida y 8-GPU NVIDIA HGX duplica la densidad de cálculo por rack y alcanza los 80 kW/rack, lo que reduce el coste total de propiedad (TCO)

SAN JOSÉ, California y DENVER, 13 de noviembre de 2023 /PRNewswire/ -- Supercomputing Conference (SC23) -- Supermicro, Inc. (NASDAQ: SMCI), un proveedor total de soluciones de TI para IA, nube, almacenamiento y 5G/Edge, está ampliando su alcance de IA con el próximo soporte para la nueva NVIDIA HGX H200 construida con GPUs H200 Tensor Core. Las plataformas de IA líderes del sector de Supermicro, incluidos los sistemas de GPU universales 8U y 4U, están preparados para la HGX H200 8-GPU, 4-GPU, y con casi el doble de capacidad y 1,4 veces más ancho de banda de memoria HBM3e en comparación con la GPU NVIDIA H100 Tensor Core. Además, la cartera más amplia de sistemas NVIDIA MGXTM de Supermicro es compatible con el próximo superchip NVIDIA Grace Hopper con memoria HBM3e. Con un rendimiento, escalabilidad y fiabilidad sin precedentes, las soluciones de IA a escala de bastidor de Supermicro aceleran el rendimiento de la IA generativa computacionalmente intensiva, el entrenamiento de modelos de gran lenguaje (LLM) y las aplicaciones HPC, al tiempo que satisfacen las demandas cambiantes de modelos de tamaño cada vez mayor. Utilizando la arquitectura de bloques de construcción, Supermicro puede llevar rápidamente la nueva tecnología al mercado, permitiendo a los clientes ser más productivos antes.

Supermicro también presenta el servidor de mayor densidad del sector con sistemas NVIDIA HGX H100 de 8 GPU en un sistema 4U refrigerado por líquido, que utiliza la última solución de refrigeración líquida de Supermicro. El servidor de GPU de alto rendimiento más compacto del sector permite a los operadores de centros de datos reducir el espacio ocupado y los costes energéticos, al tiempo que ofrece la mayor capacidad de entrenamiento de IA disponible en un solo rack. Con los sistemas GPU de mayor densidad, las organizaciones pueden reducir su coste total de propiedad aprovechando las soluciones de refrigeración líquida de última generación.

Charles Liang, director general y consejero delegado de Supermicro, afirmó: "Supermicro colabora con NVIDIA para diseñar los sistemas más avanzados para aplicaciones de formación de IA y HPC. Nuestra arquitectura de bloques de construcción nos permite ser los primeros en comercializar la última tecnología, lo que permite a los clientes desplegar IA generativa más rápido que nunca. Podemos entregar estos nuevos sistemas a los clientes más rápidamente gracias a nuestras instalaciones de fabricación en todo el mundo. Los nuevos sistemas, que utilizan la GPU NVIDIA H200 con interconexiones GPU-GPU de alta velocidad NVIDIA® NVLink™ y NVSwitch™ a 900 GB/s, proporcionan ahora hasta 1,1 TB de memoria HBM3e de gran ancho de banda por nodo en nuestras soluciones de IA a escala de bastidor para ofrecer el máximo rendimiento de paralelismo de modelos para los LLM y la IA generativa actuales. También nos complace ofrecer el servidor de refrigeración líquida NVIDIA HGX 8-GPU más compacto del mundo, que duplica la densidad de nuestras soluciones de IA a escala de bastidor y reduce los costes energéticos para conseguir una informática ecológica para el centro de datos acelerado de hoy en día".

Aprenda más acerca de los servidores de Supermicro con GPUs de NVIDIA

Supermicro diseña y fabrica una amplia cartera de servidores de IA con diferentes factores de forma. Los populares sistemas de GPU universal 8U y 4U con GPU NVIDIA HGX H100 de cuatro y ocho vías ahora están preparados para las nuevas GPU H200 para entrenar modelos de lenguaje aún más grandes en menos tiempo. Cada GPU NVIDIA H200 contiene 141 GB de memoria con un ancho de banda de 4,8 TB/s.

Dion Harris, director de soluciones de productos de centros de datos para HPC, IA y computación cuántica en NVIDIA, explicó: "Los próximos diseños de servidores de Supermicro que utilicen NVIDIA HGX H200 ayudarán a acelerar las cargas de trabajo de IA generativa y HPC, para que las empresas y organizaciones puedan sacar el máximo partido de su infraestructura de IA. La GPU NVIDIA H200 con memoria HBM3e de alta velocidad será capaz de manejar cantidades masivas de datos para una gran variedad de cargas de trabajo".

Además, los servidores Supermicro MGX recientemente lanzados con los superchips NVIDIA GH200 Grace Hopper están diseñados para incorporar la GPU NVIDIA H200 con memoria HBM3e.

Las nuevas GPU NVIDIA permiten acelerar los actuales y futuros modelos de lenguaje de gran tamaño (LLM) con cientos de miles de millones de parámetros para que quepan en clusters más compactos y eficientes con el fin de entrenar la IA Generativa con menos tiempo y también permitir que múltiples modelos más grandes quepan en un solo sistema para la inferencia de LLM en tiempo real con el fin de servir a la IA Generativa para millones de usuarios.

En SC23, Supermicro presenta su última oferta, un sistema de GPU universal 4U que incluye NVIDIA HGX H100 de ocho vías con sus últimas innovaciones de refrigeración líquida que mejoran aún más la densidad y la eficiencia para impulsar la evolución de la IA. Con las placas frías de GPU y CPU, CDU (unidad de distribución de refrigeración) y CDM (colector de distribución de refrigeración) de Supermicro, líderes del sector y diseñadas para la computación ecológica, el nuevo sistema de GPU universal 4U con refrigeración líquida también está preparado para la NVIDIA HGX H200 de ocho vías, que reducirá drásticamente el espacio ocupado por el centro de datos, el coste energético y los obstáculos de despliegue a través de las soluciones de rack de refrigeración líquida totalmente integradas de Supermicro y nuestras pruebas de validación L10, L11 y L12.

MGX

Si desea más información visite el expositor de Supermicro en SC23