Supermicro treibt die Ära der KI und des Metaverse mit Spitzen-Servern für KI-Training, Deep Learning, HPC und generative KI voran, mit NVIDIA HGX und PCIe-basierten H100 8-GPU-Systemen
SAN JOSE CITY, Kalif., 21. März 2023 /PRNewswire/ -- Supermicro, Inc. (NASDAQ, SMCI), ein Anbieter von IT-Gesamtlösungen für KI/ML, Cloud, Storage und 5G/Edge, hat heute bekannt gegeben, dass er mit der Auslieferung seiner neuen GPU-Server der Spitzenklasse begonnen hat, die das neueste NVIDIA HGX H100 8-GPU-System enthalten. Supermicro-Server enthalten die neue NVIDIA L4 Tensor Core-GPU in einer breiten Palette von anwendungsoptimierten Servern, vom Edge bis hin zum Rechenzentrum.
„Supermicro bietet das umfangreichste Portfolio an GPU-Systemen in der Branche, darunter Server in den Formfaktoren 8U, 6U, 5U, 4U, 2U und 1U sowie Workstations und SuperBlade-Systeme, die die gesamte Palette der neuen NVIDIA H100-GPUs unterstützen", sagt Charles Liang, Präsident und CEO von Supermicro. „Mit unserem neuen NVIDIA HGX H100 Delta-Next-Server können Kunden eine neunfache Leistungssteigerung im Vergleich zur vorherigen Generation für KI-Trainingsanwendungen erwarten. Unsere GPU-Server verfügen über ein innovatives Luftstromdesign, das die Lüfterdrehzahl und den Geräuschpegel reduziert und weniger Strom verbraucht, was zu einer Senkung der Gesamtbetriebskosten (TCO) führt. Darüber hinaus bieten wir komplette Flüssigkühlungsoptionen im Rack-Format für Kunden, die ihre Rechenzentren noch zukunftssicherer machen wollen."
Supermicros leistungsstärkster neuer 8U-GPU-Server wird jetzt in Serie ausgeliefert. Dieser neue Supermicro 8U -Server ist für KI-, DL-, ML- und HPC-Workloads optimiert und wird von der NVIDIA HGX H100 8-GPU angetrieben, die mit der schnellsten NVIDIA NVLink® 4.0 Technologie, NVSwitch Interconnects und NVIDIA Quantum-2 InfiniBand- und Spectrum-4 Ethernet-Netzwerken die höchste GPU-to-GPU-Kommunikation bietet, um die Grenzen der KI zu durchbrechen. Darüber hinaus bietet Supermicro mehrere leistungsoptimierte Konfigurationen von GPU-Servern an, darunter Direct-Connect/Single-Root/Dual-Root-CPUs zu GPUs und Front- oder Rear-I/O-Modelle mit AC- und DC-Stromversorgung in Standard- und OCP-DC-Rack-Konfigurationen. Das Supermicro X13 SuperBlade® - Gehäuse bietet Platz für 20 NVIDIA H100 Tensor Core PCIe-GPUs oder 40 NVIDIA L4-GPUs in einem 8U-Gehäuse. Darüber hinaus können bis zu 10 NVIDIA H100 PCIe-GPUs oder 20 NVIDIA L4 Tensor Core-GPUs in einem 6U-Gehäuse eingesetzt werden. Diese neuen Systeme bieten eine optimierte Beschleunigung, die ideal für die Ausführung von NVIDIA AI Enterprise ist, dem Software Layer der NVIDIA AI-Plattform.
Die Flüssigkeitskühlung dieser Server wird auch von vielen GPU-Servern unterstützt. Darüber hinaus kündigt Supermicro ein flüssigkeitsgekühltes KI-Entwicklungssystem (als Tower- oder Rack-Mount-Konfiguration) mit zwei CPUs und vier NVIDIA A100 Tensor Core-GPUs an, das sich ideal für Büro- und Home-Office-Umgebungen eignet und auch in Abteilungs- und Unternehmensclustern eingesetzt werden kann.
Supermicro-Systeme unterstützen die neue NVIDIA L4-GPU, die im Vergleich zu früheren Generationen ein Vielfaches an Beschleunigung und Energieeffizienz bietet. Das Gleiche gilt für KI-Inferencing, Videostreaming, virtuelle Workstations und Grafikanwendungen im Unternehmen, in der Cloud und am Edge. Mit der NVIDIA KI-Plattform und dem Full-Stack-Ansatz ist die L4 für Inferenzen im großen Maßstab für eine breite Palette von KI-Anwendungen optimiert, darunter Empfehlungen, sprachbasierte KI-Avatar-Assistenten, Chatbots, visuelle Suche und Contact Center-Automatisierung, um die bestmögliche personalisierte Erfahrung zu bieten. Als effizientester NVIDIA-Beschleuniger für Mainstream-Server bietet die L4 eine bis zu viermal höhere KI-Leistung, eine höhere Energieeffizienz und eine mehr als dreimal höhere Videostreaming-Kapazität und -Effizienz mit Unterstützung für AV1-Codierung/Decodierung. Die Vielseitigkeit der L4-GPU für Inferenz und Visualisierung und ihr kleiner, energieeffizienter Single-Slot-Formfaktor mit niedrigem Profil und geringem Stromverbrauch (72 W) machen sie ideal für den globalen Einsatz, auch an Edge-Standorten.
„Die Ausstattung von Supermicro-Servern mit der unübertroffenen Leistung der neuen NVIDIA L4 Tensor Core-GPU ermöglicht es Kunden, ihre Workloads effizient und nachhaltig zu beschleunigen", sagte Dave Salvator, Director of Accelerated Computing Products bei NVIDIA. „Die NVIDIA L4 ist für Mainstream-Implementierungen optimiert und bietet einen flachen Formfaktor mit einem geringen Stromverbrauch von 72 W. Damit erreicht die KI-Leistung und -Effizienz am Edge neue Dimensionen."
Die neuen PCIe-beschleunigten Lösungen von Supermicro ermöglichen die Erstellung von 3D-Welten, digitalen Zwillingen, 3D-Simulationsmodellen und dem industriellen Metaverse. Zusätzlich zur Unterstützung der vorherigen Generationen von NVIDIA OVX™-Systemen bietet Supermicro eine OVX 3.0 - Konfiguration mit vier NVIDIA L40-GPUs, zwei NVIDIA ConnectX®-7-SmartNICs, einer NVIDIA BlueField®-3-DPU und der neuesten NVIDIA Omniverse Enterprise™-Software an.
Um mehr über alle neuen, fortschrittlichen GPU-Systeme von Supermicro zu erfahren, besuchen Sie bitte: https://www.supermicro.com/en/accelerators/nvidia
Erfahren Sie mehr über Supermicro auf der NVIDIA GTC 2023 - https://register.nvidia.com/events/widget/nvidia/gtcspring2023/sponsorcatalog/exhibitor/1564778120132001ghs2/?ncid=ref-spo-128510