Supermicro acelera la era de la IA y el metaverso con servidores de gama alta para formación en IA, aprendizaje profundo, HPC e IA generativa, con sistemas NVIDIA HGX y H100 de 8 GPU basados en PCIe
SAN JOSE, California, 21 de marzo de 2023 /PRNewswire/ -- Supermicro, Inc. (NASDAQ: SMCI), proveedor total de soluciones de TI para IA/ML, nube, almacenamiento y 5G/Edge, ha anunciado hoy que ha comenzado a distribuir sus nuevos servidores GPU de gama alta que incorporan el último sistema NVIDIA HGX H100 de 8 GPU. Los servidores Supermicro incorporan la nueva GPU NVIDIA L4 Tensor Core en una amplia gama de servidores optimizados para aplicaciones desde el extremo hasta el centro de datos.
Según explicó Charles Liang, director general y consejero delegado de Supermicro: "Supermicro ofrece la cartera más completa de sistemas GPU del sector, incluidos servidores en formatos 8U, 6U, 5U, 4U, 2U y 1U, así como estaciones de trabajo y sistemas SuperBlade compatibles con toda la gama de nuevas GPU NVIDIA H100. Con nuestro nuevo servidor NVIDIA HGX H100 Delta-Next, los clientes pueden esperar una mejora del rendimiento de 9 veces en comparación con la generación anterior para aplicaciones de entrenamiento de IA. Nuestros servidores GPU cuentan con innovadores diseños de flujo de aire que reducen la velocidad de los ventiladores, disminuyen los niveles de ruido y consumen menos energía, lo que se traduce en una reducción del coste total de propiedad (TCO). Además, ofrecemos opciones completas de refrigeración líquida a escala de bastidor para aquellos clientes que deseen preparar sus centros de datos para el futuro".
El nuevo servidor GPU 8U más potente de Supermicro ya está disponible en volumen. Optimizado para cargas de trabajo de IA, DL, ML y HPC, este nuevo servidor Supermicro 8U está equipado con la GPU NVIDIA HGX H100 8-GPU que ofrece la más alta comunicación GPU-GPU utilizando la tecnología más rápida NVIDIA NVLink® 4.0, interconexiones NVSwitch y redes NVIDIA Quantum-2 InfiniBand y Spectrum-4 Ethernet para romper las barreras de la IA a escala. Además, Supermicro ofrece varias configuraciones de servidores GPU de rendimiento optimizado, que incluyen CPU de conexión directa/de raíz única/de raíz doble a GPU y modelos de E/S frontal o trasera con alimentación de CA y CC en configuraciones de rack estándar y OCP DC. La carcasa Supermicro X13 SuperBlade® admite 20 GPU PCIe NVIDIA H100 Tensor Core o 40 GPU NVIDIA L4 en una carcasa de 8U. Además, se pueden utilizar hasta 10 GPUs PCIe NVIDIA H100 o 20 GPUs NVIDIA L4 Tensor Core en una caja de 6U. Estos nuevos sistemas proporcionan la aceleración optimizada ideal para ejecutar NVIDIA AI Enterprise, la capa de software de la plataforma de IA de NVIDIA.
La refrigeración líquida de estos servidores también es compatible con muchos servidores GPU. Además, Supermicro anuncia un sistema de desarrollo de IA con refrigeración líquida (como configuración en torre o en bastidor) que contiene dos CPU y cuatro GPU NVIDIA A100 Tensor Core, ideal para entornos de oficina y domésticos y capaz de desplegarse en clústeres departamentales y corporativos.
Los sistemas Supermicro son compatibles con la nueva GPU NVIDIA L4, que ofrece una ganancia de aceleración y una eficiencia energética multiplicadas en comparación con las generaciones anteriores. Lo mismo puede decirse de las inferencias de IA, el streaming de vídeo, las estaciones de trabajo virtuales y las aplicaciones gráficas en la empresa, en la nube y en el perímetro. Con la plataforma de IA de NVIDIA y el enfoque de pila completa, la L4 está optimizada para la inferencia a escala para una amplia gama de aplicaciones de IA, incluidas recomendaciones, asistentes avatares de IA basados en voz, chatbots, búsqueda visual y automatización de centros de contacto para ofrecer las mejores experiencias personalizadas. Como el acelerador NVIDIA más eficiente para servidores de uso general, L4 tiene hasta 4 veces más rendimiento de IA, mayor eficiencia energética y más de 3 veces más capacidad y eficiencia de transmisión de vídeo con soporte de codificación/decodificación AV1. La versatilidad de la GPU L4 para la inferencia y la visualización y su formato de 72 W, pequeño, eficiente energéticamente, de una sola ranura, bajo perfil y bajo consumo de energía la hacen ideal para implantaciones globales, incluso en ubicaciones periféricas.
Según indicó Dave Salvator, director de productos de computación acelerada de NVIDIA: "Equipar los servidores Supermicro con la incomparable potencia de la nueva GPU NVIDIA L4 Tensor Core está permitiendo a los clientes acelerar sus cargas de trabajo de forma eficiente y sostenible. Optimizada para implantaciones de uso general, la NVIDIA L4 ofrece un formato de perfil bajo con un consumo de 72 W, lo que eleva el rendimiento y la eficiencia de la inteligencia artificial a nuevas cotas".
Las nuevas soluciones aceleradas PCIe de Supermicro potencian la creación de mundos 3D, gemelos digitales, modelos de simulación 3D y el metaverso industrial. Además de admitir las generaciones anteriores de sistemas NVIDIA OVX™, Supermicro ofrece una configuración OVX 3.0 con cuatro GPU NVIDIA L40, dos SmartNIC NVIDIA ConnectX®-7, una DPU NVIDIA BlueField®-3 y el último software NVIDIA Omniverse Enterprise™.
Si desea conocer más sobre todos los sistemas de GPU avanzados de Supermicro visite: https://www.supermicro.com/en/accelerators/nvidia
Conozca más acerca de Supermicro en NVIDIA GTC 2023 - https://register.nvidia.com/events/widget/nvidia/gtcspring2023/sponsorcatalog/exhibitor/1564778120132001ghs2/?ncid=ref-spo-128510