Ready to Ship NVIDIA Blackwell HGX™ B200 Systems
NVIDIA GB200 NVL72 SuperCluster
The Engine of the AI Revolution
xAI Colossus
SuperClúster de IA Generativa
Unlock the full potential of AI with Supermicro’s cutting-edge AI-ready infrastructure solutions. From large-scale training to intelligent edge inferencing, our turn-key reference designs streamline and accelerate AI deployment. Empower your workloads with optimal performance and scalability while optimizing costs and minimizing environmental impact. Discover a world of possibilities with Supermicro’s diverse selection of AI workload-optimized solutions and accelerate every aspect of your business.
IA a gran escala: formación e inferencia
Grandes modelos lingüísticos, entrenamiento generativo de IA, conducción autónoma, robótica
El entrenamiento de IA a gran escala exige tecnologías de vanguardia que maximicen la capacidad de cálculo paralelo de las GPU para manejar miles de millones, si no billones, de parámetros de modelos de IA que deben entrenarse con conjuntos de datos masivos. Aprovechando el HGX™ B200 y GB200 NVL72 de NVIDIA y las interconexiones más rápidas NVlink® & NVSwitch® GPU-GPU con un ancho de banda de hasta 1.8TB/s, y la red 1:1 más rápida a cada GPU para la agrupación de nodos, estos sistemas están optimizados para entrenar grandes modelos de lenguaje desde cero en el menor tiempo posible. Completando la pila con NVMe all-flash para una canalización de datos de IA más rápida, proporcionamos bastidores totalmente integrados con opciones de refrigeración líquida para garantizar una implementación rápida y una experiencia de formación de IA sin problemas.
![HGX B200 8-GPU](/sites/default/files/content_resources/static_resources/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--hgx-b200-8-gpu.png)
![GB200 Grace Blackwell SuperChip](/sites/default/files/content_resources/static_resources/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--gb200-grace-blackwell-superchip.png)
![HGX H100/H200](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--hgx-h100.png)
Tamaños de carga de trabajo
- Extra grande
- Grande
- Mediana
- Almacenamiento
![Extra Large Workload size: Liquid-cooled NVIDIA HGX B200 Systems and Racks](/sites/default/files/content_resources/static_resources/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--liquid-cooled-rack-4u-hgx-b200.png)
Liquid-cooled NVIDIA HGX B200 Systems and Racks
![Extra Large Workload size: NVIDIA GB200 NVL72 with Supermicro Liquid Cooling](/sites/default/files/content_resources/static_resources/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--gb200-nvl72.png)
NVIDIA GB200 NVL72 with Supermicro Liquid Cooling
![Large Workload size: 10U/8U 8-GPU System with HGX B200 8-GPU or HGX H200 8-GPU](/sites/default/files/content_resources/static_resources/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--10u-8gpu.png)
10U System with NVIDIA HGX B200 8-GPU and 8U System with HGX H200 8-GPU
![Medium Workload size: 4U 4-GPU System](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--4u-4gpu.png)
4U 4-GPU System
![Petabyte Scale NVMe Flash](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--petabyte-scale-nvme-storage.png)
Petabyte Scale NVMe Flash
![Petabyte Scale HDD](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--petabyte-scale-hdd-storage.png)
Petabyte Scale HDD Storage
Recursos
![Configuración de bastidor de servidor para formación de IA a gran escala](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/rack--right--large-scale-ai-training.png)
HPC/AI
Simulación de ingeniería, investigación científica, secuenciación genómica, descubrimiento de fármacos
Cada vez son más las cargas de trabajo de HPC que aumentan los algoritmos de aprendizaje automático y la computación paralela acelerada por GPU para acelerar los descubrimientos de científicos, investigadores e ingenieros. Muchos de los clusters de supercomputación más rápidos del mundo ya aprovechan las ventajas de las GPU y el poder de la IA.
Las cargas de trabajo de HPC suelen requerir simulaciones y análisis intensivos de datos con conjuntos de datos masivos y requisitos de precisión. Las GPU como la H100 de NVIDIA proporcionan un rendimiento de doble precisión sin precedentes, con 60 teraflops por GPU, y las plataformas HPC altamente flexibles de Supermicro permiten altos recuentos de GPU y CPU en una variedad de factores de forma densos con integración a escala de bastidor y refrigeración líquida.
![NVIDIA® HGX H100/H200 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--hgx-h100.png)
![NVIDIA® H100 NVL/H200 NVL GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--h100-nvl.png)
![NVIDIA® Grace Hopper Superchip](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--grace-hopper-superchip.png)
![NVIDIA® L40S GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l40s.png)
Tamaños de carga de trabajo
- Grande
- Mediana
![Large Workload size: 4U 4-GPU System or 8U 8-GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--8u-8gpu-or-4u-4gpu.png)
4U 4-GPU System or 8U 8-GPU System
![Large Workload size: 8U SuperBlade®](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--8u-superblade.png)
8U SuperBlade®
![Medium Workload size: 4U/5U 8-10 GPU PCIe](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--4u-8gpu-10gpu.png)
4U/5U 8-10 GPU PCIe
![Medium Workload size: 1U Grace Hopper System](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--1u-grace-hopper.png)
1U Grace Hopper System
Resources
![Configuración de racks de servidores para IA/HPC](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/rack--left--hpc-ai.png)
Inferencia y formación de IA para empresas
Inferencia generativa de IA, servicios/aplicaciones basados en IA, chatbots, sistemas de recomendación, automatización empresarial
El auge de la IA generativa ha sido reconocido como la próxima frontera para diversos sectores, desde la tecnología hasta la banca y los medios de comunicación. Ha comenzado la carrera por adoptar la IA como fuente para generar innovación, impulsar significativamente la productividad, agilizar las operaciones, tomar decisiones basadas en datos y mejorar la experiencia del cliente.
Tanto si se trata de aplicaciones y modelos de negocio asistidos por IA, como de chatbots inteligentes similares a los humanos para la atención al cliente, o de IA para copilotar la generación de código y la creación de contenidos, las empresas pueden aprovechar marcos abiertos, bibliotecas, modelos de IA preentrenados y perfeccionarlos para casos de uso únicos con su propio conjunto de datos. A medida que la empresa adopta la infraestructura de IA, la variedad de sistemas optimizados para GPU de Supermicro proporciona una arquitectura modular abierta, flexibilidad de proveedor y rutas de despliegue y actualización sencillas para tecnologías en rápida evolución.
![NVIDIA® H100 NVL/H200 NVL GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--h100-nvl.png)
![NVIDIA® L40S/L40 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l40s.png)
![NVIDIA® L4 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l4.png)
Tamaños de carga de trabajo
- Extra grande
- Grande
- Mediana
![Extra Large workload size: 4U/5U 8-10 GPU PCIe](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--4u5u-8gpu-10gpu.png)
4U/5U 8-10 GPU PCIe
![Medium Workload size: 6U SuperBlade®](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--6u-5blade-superblade.png)
6U SuperBlade®
![Medium workload size: 2U MGX System](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--2u-mgx.png)
2U MGX System
![Medium workload size: 2U Grace MGX System](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--2u-grace-mgx.png)
2U Grace MGX System
Resources
![Configuración de racks de servidores para inferencia y entrenamiento de IA empresarial](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/rack--right--enterprise-ai.png)
Visualización y diseño
Colaboración en tiempo real, diseño 3D, desarrollo de juegos
La mayor fidelidad de los gráficos 3D y las aplicaciones habilitadas para IA por las GPU modernas está acelerando la digitalización industrial, transformando los procesos de desarrollo y diseño de productos, la fabricación y la creación de contenidos con simulaciones 3D fieles a la realidad para alcanzar nuevas cotas de calidad, iteraciones infinitas sin costes de oportunidad y plazos de comercialización más rápidos.
Cree una infraestructura de producción virtual a escala para acelerar la digitalización industrial a través de las soluciones totalmente integradas de Supermicro, incluidos los sistemas 4U/5U 8-10 GPU, una arquitectura de referencia NVIDIA OVX™, optimizada para NVIDIA Omniverse Enterprise con conectores Universal Scene Description (USD), y servidores de montaje en bastidor y estaciones de trabajo multi-GPU con certificación NVIDIA.
![NVIDIA® L40S GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l40s.png)
![NVIDIA® L40 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l40s.png)
![NVIDIA® RTX 6000 ADA GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--rtx-6000-ada.png)
Tamaños de carga de trabajo
- Grande
- Mediana
![Large workload size: 4U/5U 8 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--4u5u-8gpu.png)
4U/5U 8 GPU
![Medium workload size: 2U Hyper](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--2u-hyper.png)
2U Hyper
![Medium workload size: AI Workstation](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--ai-workstation.png)
AI Workstations
![Medium workload size: Graphic Workstation](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--graphic-workstation.png)
Graphic Workstations
Resources
![Configuración de bastidores de servidores para visualización y omniverso](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/rack--left--visualization-design.png)
Entrega de contenidos y virtualización
Redes de distribución de contenidos (CDN), transcodificación, compresión, juegos en la nube y streaming
Las cargas de trabajo de distribución de vídeo siguen constituyendo una parte significativa del tráfico actual de Internet. A medida que los proveedores de servicios de streaming ofrecen cada vez más contenidos en 4K e incluso 8K, o juegos en la nube con una mayor frecuencia de actualización, la aceleración de la GPU con motores multimedia es imprescindible para multiplicar el rendimiento de los canales de streaming y reducir la cantidad de datos necesarios con una mayor fidelidad visual, gracias a las últimas tecnologías como la codificación y descodificación AV1.
Los sistemas multinodo y multi-GPU de Supermicro, como el sistema BigTwin® 2U de 4 nodos, cumplen los estrictos requisitos de la distribución de vídeo moderna, ya que cada nodo admite la GPU NVIDIA L4 con la capacidad de contar con abundante almacenamiento PCIe Gen5 y velocidad de red para impulsar la exigente canalización de datos para redes de distribución de contenidos.
![NVIDIA® L40 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l40s.png)
![NVIDIA® L4 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l4.png)
Tamaños de carga de trabajo
- Grande
- Mediana
- Small
Resources
![Configuración del bastidor del servidor para la entrega y virtualización de contenidos](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/rack--right--content-delivery-virtualization.png)
Inteligencia Artificial Edge
Transcodificación de vídeo Edge, inferencia Edge, formación Edge
En todos los sectores, las empresas cuyos empleados y clientes trabajan en ubicaciones periféricas (ciudades, fábricas, tiendas, hospitales, etc.) están invirtiendo cada vez más en la implementación de la IA en el perímetro. Al procesar los datos y utilizar algoritmos de IA y ML en el perímetro, las empresas superan las limitaciones de ancho de banda y latencia, lo que permite el análisis en tiempo real para la toma de decisiones oportuna, la atención predictiva y los servicios personalizados, así como la optimización de las operaciones empresariales.
Los servidores Supermicro Edge AI, creados específicamente y optimizados para el entorno, con varios factores de forma compactos, ofrecen el rendimiento necesario para una baja latencia, arquitectura abierta con componentes preintegrados, compatibilidad con diversas pilas de hardware y software, y conjuntos de características de privacidad y seguridad necesarios para despliegues edge complejos listos para usar.
![NVIDIA® L40S GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l40s.png)
![NVIDIA® L40 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l40s.png)
![NVIDIA® L4 GPU](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/gpu--l4.png)
Tamaños de carga de trabajo
- Extra grande
- Grande
- Mediana
- Small
![Extra large workload size: Hyper-E](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--2u-hyper-e-closed.png)
Hyper-E
![Large workload size: Compact box edge system](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--compact-edge.png)
Compact
![Medium workload size: Short-depth Multi-GPU Edge Server](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--short-depth-multigpu-edge.png)
Short-depth Multi-GPU Edge Server
![Small workload size: Embedded](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/carousel--embedded-fanless.png)
Fanless
Resources
![Configuración de rack de servidores para Edge AI](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/workloads/rack--left--ai-edge.png)
SuperClúster de IA Generativa
La cartera más amplia de sistemas preparados para la IA
![Toma de cartera de sistemas GPU Supermicro](/sites/default/files/solutions/ai-deep-learning/ai-infrastructure/gpu-portfolio-shot.png)
Implemente NVIDIA Omniverse™ a escala
![](/sites/default/files/styles/video_embed_wysiwyg_preview/public/video_thumbnails/HQnNpZFIhpA.jpg?itok=ts5bdd72)
COMPUTEX 2024 CEO Keynote