Pasar al contenido principal
Componentes básicos de la infraestructura de IA generativa

En la era de la IA, una unidad de cálculo ya no se mide sólo por el número de servidores. GPUs, CPUs, memoria, almacenamiento y estos recursos interconectados a través de múltiples nodos en racks construyen la Inteligencia Artificial actual. La infraestructura requiere tejidos de red de alta velocidad y baja latencia, y tecnologías de refrigeración y suministro de energía cuidadosamente diseñadas para mantener un rendimiento y eficiencia óptimos para cada entorno de centro de datos. La solución SuperCluster de Supermicro proporciona bloques de construcción fundacionales para la IA generativa de rápida evolución y los grandes modelos de lenguaje (LLM).

  • Integración completa a escala

    Diseño y construcción de racks y clusters completos con una capacidad de fabricación global de hasta 5.000racks al mes

  • Pruebas, validación e implantación con servicio in situ

    Los procesos de prueba L11 y L12 de eficacia probada validan exhaustivamente la eficacia y eficiencia operativas antes del envío.

  • Refrigeración líquida/enfriamiento por aire

    Solución de refrigeración líquida o por aire totalmente integrada con placas frías para GPU y CPU, unidades de distribución de refrigeración y colectores

  • Gestión de suministros e inventarios

    Un único proveedor para suministrar bastidores totalmente integrados de forma rápida y puntual con el fin de reducir el tiempo de implementación de la solución.

Superclúster de IA generativa

La solución completa de centro de datos llave en mano acelera el tiempo de entrega para casos de uso empresarial de misión crítica, y elimina la complejidad de construir un gran clúster, que anteriormente sólo era posible mediante el ajuste de diseño intensivo y la optimización que consume tiempo de la supercomputación.

Máxima densidad

Con 32 sistemas NVIDIA HGX H100/H200 de 8 GPU, 4U y refrigeración líquida (256 GPU) en 5 racks

  • Duplicación de la densidad de cálculo a través de la solución de refrigeración líquida personalizada de Supermicro con una reducción de hasta el 40% en el coste de electricidad para el centro de datos.
  • 256 GPU NVIDIA H100/H200 en una unidad escalable
  • 20 TB de HBM3 con H100 o 36 TB de HBM3e con H200 en una unidad escalable
  • Conexión en red 1:1 con cada GPU para permitir RDMA y almacenamiento NVIDIA GPUDirect para el entrenamiento de modelos de lenguaje de gran tamaño con hasta billones de parámetros.
  • Tejido de almacenamiento de canalización de datos de IA personalizable con opciones de sistemas de archivos paralelos líderes del sector
  • Supports NVIDIA Quantum-2 InfiniBand and Spectrum-X Ethernet platform
  • Certified for NVIDIA AI Enterprise Platform including NVIDIA NIM microservices
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Download Datasheet

Nodo informático

Sistema Supermicro 4U de 8 GPU con refrigeración líquida (SYS-421GE-TNHR2-LCC o AS -4125GS-TNHR2-LCC)
32 sistemas NVIDIA HGX H100/H200 de 8 GPU, 4U y refrigeración líquida (256 GPU) en 5 racks

Diseño probado

Con 32 NVIDIA HGX H100/H200 8-GPU, 8U Sistemas refrigerados por aire (256 GPUs) en 9 Racks

  • Arquitectura probada líder del sector para implantaciones de infraestructuras de IA a gran escala
  • 256 GPU NVIDIA H100/H200 en una unidad escalable
  • 20 TB de HBM3 con H100 o 36 TB de HBM3e con H200 en una unidad escalable
  • Conexión en red 1:1 con cada GPU para permitir RDMA y almacenamiento NVIDIA GPUDirect para el entrenamiento de modelos de lenguaje de gran tamaño con hasta billones de parámetros.
  • Tejido de almacenamiento de canalización de datos de IA personalizable con opciones de sistemas de archivos paralelos líderes del sector
  • Supports NVIDIA Quantum-2 InfiniBand and Spectrum-X Ethernet platform
  • Certified for NVIDIA AI Enterprise Platform including NVIDIA NIM microservices
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Download Datasheet

Nodo informático

Sistema Supermicro 8U de 8 GPU refrigerado por aire (SYS-821GE-TNHR o AS -8125GS-TNHR)
32 sistemas NVIDIA HGX H100/H200 de 8 GPU, 8U refrigerados por aire (256 GPU) en 9 racks

Inferencia a escala de nube

Con 256 superchips NVIDIA GH200 Grace Hopper, sistemas MGX 1U en 9 racks

  • Memoria unificada de GPU y CPU para inferencia a escala de nube de gran volumen, baja latencia y gran tamaño de lote
  • Sistemas NVIDIA MGX 1U refrigerados por aire en 9 bastidores, 256 superchips NVIDIA GH200 Grace Hopper en una unidad escalable
  • Hasta 144 GB de HBM3e + 480 GB de LPDDR5X, capacidad suficiente para alojar un modelo de más de 70B de parámetros en un nodo
  • Red no bloqueante InfiniBand o Ethernet a 400 Gb/s conectada a un tejido de red en forma de hoja de espina dorsal
  • Customizable AI data pipeline storage fabric with industry leading parallel file system options
  • NVIDIA AI Enterprise Ready including NVIDIA NIM microservices
NVIDIA GH200 Grace Hopper Superchip
NVIDIA GH200 Grace Hopper Superchip
Download Datasheet

Nodo informático

Sistema Supermicro 1U GH200 Grace Hopper Superchip
256 NVIDIA GH200 Grace Hopper Superchips, sistemas MGX 1U en 9 bastidores
Recursos destacados

Certain products may not be available in your region