Supermicro lanza SuperClusters de IA con refrigeración líquida plug-and-play a escala de rack para NVIDIA Blackwell y NVIDIA HGX H100/H200: innovaciones radicales en la era de la IA para hacer que la refrigeración líquida sea gratuita con una bonificación
SAN JOSE, Calif. y TAIPEI, Taiwán, 5 de junio, 2024 /PRNewswire/ -- Supermicro, Inc. (NASDAQ: SMCI), un proveedor total de soluciones de TI para IA, nube, almacenamiento y 5G/Edge, presenta un centro de datos de IA refrigerado por líquido listo para implementar, diseñado para soluciones nativas de la nube que aceleran Adopción de IA generativa para empresas de todos los sectores con sus SuperClusters, optimizados para la plataforma de software NVIDIA AI Enterprise para el desarrollo y la implementación de IA generativa. Con la refrigeración líquida 4U de Supermicro, las Blackwell GPUs introducidas recientemente por NVIDIA pueden liberar completamente 20 PetaFLOPS en una sola GPU de rendimiento de IA y demostrar un entrenamiento de IA 4 veces mejor y un rendimiento de inferencia 30 veces mejor que las GPU anteriores con ahorros de costos adicionales. Alineado con su estrategia de ser el primero en el mercado, Supermicro anunció recientemente una línea completa de productos basados en la arquitectura NVIDIA Blackwell para los nuevos Superchip NVIDIA HGXTM B100, B200, and GB200 Grace Blackwell .
"Supermicro continúa liderando la industria en la creación e implementación de soluciones de inteligencia artificial con refrigeración líquida a escala de rack", afirmó Charles Liang, presidente y consejero delegado de Supermicro. "Los centros de datos con refrigeración líquida pueden ser prácticamente gratuitos y proporcionar un valor adicional para los clientes, con la reducción continua en el uso de electricidad. Nuestras soluciones están optimizadas con el software NVIDIA AI Enterprise para clientes de todas las industrias, y ofrecemos capacidad de fabricación global con tecnología mundial. El resultado es que podemos reducir el tiempo de entrega de nuestros clústeres llave en mano refrigerados por líquido o por aire con NVIDIA HGX H100 y H200, así como las próximas soluciones B100, B200 y GB200, desde placas frías hasta CDU. Además de las torres de enfriamiento, nuestras soluciones de enfriamiento líquido total a escala de rack pueden reducir el uso continuo de energía del centro de datos hasta en un 40 %".
Visite www.supermicro.com/ai para obtener más información.
En COMPUTEX 2024, Supermicro está revelando sus próximos sistemas optimizados para la GPU NVIDIA Blackwell, incluido un sistema basado en NVIDIA HGX B200 de 10U refrigerado por aire y uno de 4U refrigerado por líquido. Además, Supermicro ofrecerá un sistema NVIDIA HGX B100 refrigerado por aire de 8U y el bastidor NVIDIA GB200 NVL72 de Supermicro que contiene 72 GPU interconectadas con conmutadores NVIDIA NVLink, así como los nuevos sistemas NVIDIA MGX™ que admiten las GPU NVIDIA H200 NVL PCIe y las recientemente anunciadas Arquitectura NVIDIA GB200 NVL2.
"La IA generativa está impulsando un reinicio de toda la pila informática: los nuevos centros de datos serán acelerados por GPU y optimizados para la IA", afirmó Jensen Huang, fundador y consejero delegado de NVIDIA. "Supermicro ha diseñado soluciones de redes e informática acelerada de NVIDIA de vanguardia, lo que permite optimizar los centros de datos globales de billones de dólares para la era de la IA".
El rápido desarrollo de grandes modelos de lenguaje y las nuevas introducciones continuas de modelos de código abierto como Llama-3 de Meta y Mixtral 8x22B de Mistral hacen que los modelos de IA de última generación actuales sean más accesibles para las empresas. La necesidad de simplificar la infraestructura de IA y brindar accesibilidad de la manera más rentable es fundamental para respaldar la velocidad vertiginosa actual de la revolución de la IA. El SuperCluster de IA nativo de la nube de Supermicro cierra la brecha entre la conveniencia de la nube de acceso instantáneo y portabilidad, aprovechando NVIDIA AI Enterprise, lo que permite mover proyectos de IA del piloto a la producción sin problemas a cualquier escala. Esto proporciona la flexibilidad de ejecutarse en cualquier lugar con datos administrados de forma segura, incluidos sistemas autohospedados o grandes centros de datos locales.
Dado que empresas de todos los sectores experimentan rápidamente con casos de uso de IA generativa, Supermicro colabora estrechamente con NVIDIA para garantizar una transición fluida y flexible desde la experimentación y el pilotaje de aplicaciones de IA hasta la implementación de producción y la IA de centros de datos a gran escala. Este resultado se logra mediante la optimización a nivel de rack y clúster con la plataforma de software NVIDIA AI Enterprise, lo que permite un viaje fluido desde la exploración inicial hasta la implementación escalable de AI.
Los servicios gestionados comprometen las opciones de infraestructura, el intercambio de datos y el control de la estrategia de IA generativa. Los microservicios NVIDIA NIM, parte de NVIDIA AI Enterprise, ofrecen IA generativa administrada y beneficios de implementación de código abierto sin inconvenientes. Su versátil tiempo de ejecución de inferencia con microservicios acelera la implementación de IA generativa en una amplia gama de modelos, desde el código abierto hasta los modelos básicos de NVIDIA. Además, NVIDIA NeMo™ permite el desarrollo de modelos personalizados con curación de datos, personalización avanzada y generación de recuperación aumentada (RAG) para soluciones listas para la empresa. Combinado con los SuperClusters preparados para la IA empresarial de NVIDIA de Supermicro, NVIDIA NIM proporciona el camino más rápido hacia implementaciones de producción de IA generativa aceleradas y escalables.
Las ofertas actuales de SuperCluster de IA generativa de Supermicro incluyen:
- SuperCluster Supermicro NVIDIA HGX H100/H200 con refrigeración líquida y 256 GPU H100/H200 como unidad de procesamiento escalable en 5 bastidores (incluido 1 bastidor de red dedicado)
- SuperCluster Supermicro NVIDIA HGX H100/H200 refrigerado por aire con 256 GPU HGX H100/H200 como unidad de procesamiento escalable en 9 bastidores (incluido 1 bastidor de red dedicado)
- Supermicro NVIDIA MGX GH200 SuperCluster con 256 superchips GH200 Grace™ Hopper como unidad de procesamiento escalable en 9 racks (incluido 1 rack de red dedicado)
Los Supermicro SuperClusters están preparados para NVIDIA AI Enterprise con los microservicios NVIDIA NIM y la plataforma NVIDIA NeMo para la personalización de la IA generativa de extremo a extremo y están optimizados para NVIDIA Quantum-2 InfiniBand, así como para la nueva plataforma NVIDIA Spectrum-X Ethernet con 400 Gb/s de velocidad de red por GPU para escalar a un clúster grande con decenas de miles de GPU.
Las próximas ofertas de SuperCluster de Supermicro incluyen:
- Supermicro NVIDIA HGX B200 SuperCluster, refrigerado por líquido
- Supermicro NVIDIA HGX B100/B200 SuperCluster, refrigerado por aire
- Supermicro NVIDIA GB200 NVL72 o NVL36 SuperCluster, refrigerado por líquido
Las soluciones SuperCluster de Supermicro están optimizadas para la capacitación LLM, el aprendizaje profundo y la inferencia de gran volumen y tamaño de lotes. Las pruebas de validación L11 y L12 y el servicio de implementación in situ de Supermicro brindan a los clientes una experiencia perfecta. Los clientes reciben unidades escalables plug-and-play para una fácil implementación en un centro de datos y una obtención de resultados más rápida.