Supermicro erweitert Portfolio mit vollintegrierten NVIDIA A100 GPU-betriebenen Systemen, die 5 PetaFLOPS KI-Leistung in einem einzelnen 4U-Server bieten
SAN JOSE, Kalifornien, 14. Mai 2020 /PRNewswire/ — Super Micro Computer, Inc. (Nasdaq: SMCI), ein weltweit führendes Unternehmen in den Bereichen Enterprise-Computing, Speicher, Netzwerklösungen und Green Computing-Technologie, kündigte heute zwei neue Systeme an, die für auf künstlicher Intelligenz (KI) basierende Deep Learning-Anwendungen designt wurden. Die Systeme nutzen die NVIDIA HGX™-Technologie der dritten Generation mit den neuen NVIDIA A100™ Tensor Core GPUs und bieten für das gesamte Unternehmensportfolio von 1U, 2U, 4U und 10U GPU-Servern vollständigen Support für die neuen NVIDIA A100 GPUs. NVIDIA A100 ist die erste elastische Multi-Instance-GPU, die Training, Inferenz, HPC und Analytik vereint.
„Mit der Erweiterung unseres branchenführenden Portfolios von GPU-Systemen und NVIDIA HGX-2-Systemtechnologie führt Supermicro ein neues 2U-System ein, das das neue NVIDIA HGX™ A100 4 GPU-Board (ehemals unter dem Codenamen Redstone) implementiert, sowie das neue 4U-System, das auf dem neuen NVIDIA HGX A100 8 GPU-Board (ehemals unter dem Codenamen Delta) basiert und 5 PetaFLOPS KI-Leistung bietet", so Charles Liang, CEO und Präsident von Supermicro. „Angesichts der weiteren Entwicklung von GPU-beschleunigtem Computing und der damit verbundenen Transformation von Rechenzentren möchte Supermicro seinen Kunden die aktuellsten Systemverbesserungen bieten. Damit möchten wir ihnen ermöglichen, auf jeder Ebene maximale Beschleunigung zu erreichen und gleichzeitig GPUs optimiert einzusetzen. Diese neuen Systeme werden die Leistung sämtlicher beschleunigter Workloads für HPC, Datenanalyse, Deep Learning-Training und Deep Learning-Inferenz deutlich ankurbeln."
Als ausgewogene Rechenzentrum-Plattform für HPC- und KI-Anwendungen nutzen die neuen 2U-Systeme von Supermicro das NVIDIA HGX A100 4 GPU-Board mit vier direkt verbundenen NVIDIA A100 Tensor Core GPUs, die PCI-E 4.0 für maximale Leistung verwenden, und NVIDIA NVLink™ für GPU-zu-GPU-Hochgeschwindigkeitsverbindungen. Dieses fortschrittliche GPU-System beschleunigt die Computing-, Networking- und Speicherleistung mit Support für einen PCI-E 4.0 x8 und bis zu vier PCI-E 4.0 x16 Erweiterungssteckplätzen für GPUDirect RDMA Hochgeschwindigkeits-Netzwerkkarten und Speicher, wie z. B. InfiniBand™ HDR™, der eine Bandbreite von bis zu 200 GB pro Sekunde unterstützt.
„KI-Modelle gewinnen stark an Komplexität, indem sie sich Herausforderungen der nächsten Stufe stellen, wie z. B. präzise Gesprächs-KI, Deep Recommender-Systeme und personalisierte Medizin", so Ian Buck, General Manager und VP für Accelerated Computing bei NVIDIA. „Durch Implementierung der NVIDIA HGX A100-Plattform in ihre neuen Server bietet Supermicro seinen Kunden die hohe Leistungsfähigkeit und enorme Skalierbarkeit, mit der Forscher ihre komplexesten KI-Netzwerke so schnell wie noch nie zuvor trainieren können."
Supermicros neues 4U-System ist für KI und maschinelles Lernen optimiert und unterstützt acht A100 Tensor Core GPUs. Der 4U-Formfaktor mit acht GPUs ist ideal für Kunden, die ihre Bereitstellung entsprechend der wachsenden Verarbeitungsanforderungen skalieren möchten. Das neue 4U System verfügt über ein NVIDIA HGX A100 8 GPU-Board mit acht A100 GPUs, die alle mit NVIDIA NVSwitch™ für eine GPU-zu-GPU-Bandbreite von bis zu 600 GB pro Sekunde verbunden sind. Außerdem sind acht Erweiterungssteckplätze für GPUDirect RDMA Hochgeschwindigkeits-Netzwerkkarten vorhanden. Diese hochskalierbare Plattform eignet sich ideal für Deep Learning-Training und kann von Rechenzentren genutzt werden, um KI der nächsten Generation zu erstellen und durch die zehn x16 Erweiterungssteckplätze die Produktivität von Datenwissenschaftlern zu steigern.
Kunden dürfen sich auf eine beachtliche Leistungssteigerung von Supermicros umfangreichem Portfolio von 1U, 2U, 4U und 10U Multi-GPU-Servern freuen, wenn sie über die neuen NVIDIA A100 GPUs verfügen. Das neue A+ GPU-System von Supermicro unterstützt für maximale Beschleunigung bis zu acht GPUs mit vollständiger Höhe und doppelter Breite (oder einfache Breite) über direkt verbundene PCI-E 4.0 x16 CPU-zu-GPU-Spuren ohne PCI-E-Switch, um die niedrigste Latenz und höchste Bandbreite zu bieten. Darüber hinaus unterstützt das System bis zu drei zusätzliche PCI-E 4.0 Hochleistungs-Erweiterungssteckplätze für unterschiedlichen Gebrauch, einschließlich einer leistungsstarken Networking-Konnektivität von bis zu 100 G. Ein zusätzlicher AIOM-Steckplatz unterstützt eine Supermicro AIOM-Karte oder eine OCP 3.0-Mezzanine-Karte.
Als Marktführer für KI-Systemtechnologie bietet Supermicro optimierte thermische Multi-GPU-Designs, die höchste Leistung und Zuverlässigkeit für KI-, Deep Learning- und HPC-Anwendungen bieten. Mit 1U-, 2U-, 4U- und 10U-Rackmount-GPU-Systemen, Utra, BigTwin™ und eingebetteten Systemen, die GPUs unterstützen, sowie GPU-Blade-Modellen für unsere 8U SuperBlade® bietet Supermicro die branchenweit größte und vielfältigste Auswahl an GPU-Systemen, um Anwendungen von Edge bis Cloud zu betreiben.
Um verbesserte Sicherheit und beispiellose Leistung an der Peripherie zu bieten, möchte Supermicro sein Edge Server-Portfolio durch die neue NVIDIA EGX™ A100-Konfiguration erweitern. Der konvergierte EGX A100-Beschleuniger kombiniert NVIDIA Mellanox SmartNIC mit GPUs, die durch die neuen NVIDIA Ampere-Architektur betrieben werden, sodass Unternehmen KI an der Peripherie sicherer einsetzen können.