Supermicro stellt flüssigkeitsgekühlte Plug-and-Play-KI-SuperClusters im Rackmaßstab für NVIDIA Blackwell und NVIDIA HGX H100/H200 vor – radikale Innovationen im KI-Zeitalter, die Flüssigkühlung mit einem Bonus kostenlos machen
SAN JOSE, Kalifornien und TAIPEI, Taiwan, 6. Juni 2024 /PRNewswire/ -- Supermicro, Inc. (NASDAQ: SMCI), ein Anbieter von IT-Gesamtlösungen für KI, Cloud, Storage und 5G/Edge, stellt ein sofort einsatzbereites flüssigkeitsgekühltes KI-Rechenzentrum vor, das für Cloud-native Lösungen entwickelt wurde, die die Einführung generativer KI in Unternehmen aller Branchen mit seinen SuperClustern beschleunigen, die für die Softwareplattform NVIDIA AI Enterprise für die Entwicklung und den Einsatz generativer KI optimiert sind. Mit dem flüssigkeitsgekühlten 4U-System von Supermicro kann die kürzlich von NVIDIA vorgestellte Blackwell GPUs 20 PetaFLOPS an KI-Leistung auf einer einzigen GPU entfesseln und eine 4X bessere KI-Trainings- und 30X bessere Inferenzleistung als die bisherigen GPUs demonstrieren, und das bei zusätzlichen Kosteneinsparungen. Im Einklang mit seiner First-to-Market-Strategie hat Supermicro kürzlich eine komplette Produktlinie auf Basis der NVIDIA Blackwell Architektur für den neuen NVIDIA HGXTM B100, B200, and GB200 Grace Blackwell Superchip angekündigt.
„Supermicro ist weiterhin führend in der Branche bei der Entwicklung und Bereitstellung von KI-Lösungen mit Flüssigkühlung im Rackmaßstab", sagt Charles Liang, Vorstandsvorsitzender und Geschäftsführer von Supermicro. „Rechenzentren mit Flüssigkeitskühlung können praktisch kostenlos sein und bieten den Kunden durch die kontinuierliche Senkung des Stromverbrauchs einen zusätzlichen Nutzen. Unsere Lösungen sind mit der NVIDIA AI Enterprise Software für Kunden aus allen Branchen optimiert, und wir bieten globale Fertigungskapazitäten mit erstklassiger Effizienz. Das Ergebnis ist, dass wir die Zeit bis zur Auslieferung unserer flüssigkeits- oder luftgekühlten schlüsselfertigen Cluster mit NVIDIA HGX H100 und H200 sowie der kommenden Lösungen B100, B200 und GB200 verkürzen können. Von Cold Plates über CDUs bis hin zu Kühltürmen können unsere Komplettlösungen für die Flüssigkeitskühlung im Rackmaßstab den Stromverbrauch im Rechenzentrum um bis zu 40 % senken."
Besuchen Sie www.supermicro.com/ai für weitere Informationen.
Auf der COMPUTEX 2024 stellt Supermicro seine kommenden Systeme vor, die für die NVIDIA Blackwell GPU optimiert sind, darunter ein luftgekühltes 10U-System und ein flüssigkeitsgekühltes 4U-System auf Basis der NVIDIA HGX B200. Darüber hinaus bietet Supermicro ein luftgekühltes 8U NVIDIA HGX B100 System und Supermicros NVIDIA GB200 NVL72 Rack mit 72 miteinander verbundenen GPUs mit NVIDIA NVLink Switches, an, sowie die neuen NVIDIA MGX™ Systeme, die NVIDIA H200 NVL PCIe GPUs und die neu angekündigte NVIDIA GB200 NVL2 Architektur unterstützen.
„Generative KI treibt einen Reset des gesamten Computing-Stacks voran — neue Rechenzentren werden GPU-beschleunigt und für KI optimiert sein", sagt Jensen Huang, Gründer und Geschäftsführer von NVIDIA. „Supermicro hat hochmoderne NVIDIA Accelerated Computing- und Netzwerklösungen entwickelt, die es ermöglichen, die globalen Billionen-Dollar-Rechenzentren für die Ära der KI zu optimieren."
Die rasche Entwicklung großer Sprachmodelle und die kontinuierliche Einführung neuer Open-Source-Modelle wie Meta's Llama-3 und Mistral's Mixtral 8x22B machen die modernen KI-Modelle für Unternehmen leichter zugänglich. Die Notwendigkeit, die KI-Infrastruktur zu vereinfachen und die Zugänglichkeit auf möglichst kosteneffiziente Weise zu gewährleisten, ist von entscheidender Bedeutung, um die derzeitige halsbrecherische Geschwindigkeit der KI-Revolution zu unterstützen. Der Cloud-native KI-SuperCluster von Supermicro überbrückt die Lücke zwischen dem Cloud-Komfort des sofortigen Zugriffs und der Portabilität, indem er NVIDIA AI Enterprise nutzt, um KI-Projekte nahtlos und in jeder Größenordnung von der Pilotphase in die Produktion zu überführen. Dies bietet die Flexibilität, überall mit sicher verwalteten Daten zu arbeiten, einschließlich selbst gehosteter Systeme oder großer Rechenzentren vor Ort.
Supermicro arbeitet eng mit NVIDIA zusammen, um einen nahtlosen und flexiblen Übergang von der Erprobung und Pilotierung von KI-Anwendungen zur Produktionsbereitstellung und groß angelegten KI in Rechenzentren zu gewährleisten. Dieses Ergebnis wird durch die Optimierung auf Rack- und Clusterebene mit der NVIDIA AI Enterprise Software-Plattform erreicht, die eine reibungslose Reise von der ersten Erkundung bis zur skalierbaren KI-Implementierung ermöglicht.
Managed Services stellen eine Kompromisslösung für die Auswahl der Infrastruktur, die gemeinsame Nutzung von Daten und die Kontrolle der generativen KI-Strategie dar. NVIDIA NIM Microservices, Teil von NVIDIA AI Enterprise, bieten verwaltete generative KI und Open-Source-Implementierungsvorteile ohne Nachteile. Die vielseitige Inferenz-Laufzeitumgebung mit Microservices beschleunigt die generative KI-Bereitstellung für eine Vielzahl von Modellen, von Open-Source- bis zu NVIDIAs Foundation-Modellen. Darüber hinaus ermöglicht NVIDIA NeMo™ die Entwicklung benutzerdefinierter Modelle mit Datenkuratierung, erweiterter Anpassung und Retrieval-Augmented-Generierung (RAG) für unternehmenstaugliche Lösungen. In Kombination mit Supermicros NVIDIA AI Enterprise ready SuperClusters bietet NVIDIA NIM den schnellsten Weg zu skalierbaren, beschleunigten generative KI-Produktionsimplementierungen.
Supermicros aktuelle generative AI SuperCluster-Angebote umfassen:
- Flüssigkeitsgekühlten Supermicro NVIDIA HGX H100/H200 SuperCluster mit 256 H100/H200 GPUs als skalierbare Recheneinheit in 5 Racks (einschließlich 1 dedizierten Netzwerk-Rack)
- Luftgekühlten Supermicro NVIDIA HGX H100/H200 SuperCluster mit 256 HGX H100/H200 GPUs als skalierbare Recheneinheit in 9 Racks (einschließlich 1 dediziertem Netzwerk-Rack)
- Supermicro NVIDIA MGX GH200 SuperCluster mit 256 GH200 Grace™ Hopper Superchips als skalierbare Recheneinheit in 9 Racks (einschließlich 1 dediziertem Netzwerk-Rack)
Die SuperClusters von Supermicro sind NVIDIA AI Enterprise ready mit NVIDIA NIM Microservices und der NVIDIA NeMo-Plattform für eine durchgängige generative KI-Anpassung und optimiert für NVIDIA Quantum-2 InfiniBand sowie die neue NVIDIA Spectrum-X Ethernet-Plattform mit einer Netzwerkgeschwindigkeit von 400 Gb/s pro GPU für die Skalierung auf einem großen Cluster mit Zehntausenden von GPUs.
Zu den kommenden SuperCluster-Angeboten von Supermicro gehören:
- Supermicro NVIDIA HGX B200 SuperCluster, flüssigkeitsgekühlt
- Supermicro NVIDIA HGX B100/B200 SuperCluster, luftgekühlt
- Supermicro NVIDIA GB200 NVL72 oder NVL36 SuperCluster, flüssigkeitsgekühlt
Die SuperCluster-Lösungen von Supermicro sind für LLM-Training, Deep Learning und Inferenzen mit hohem Volumen und Stapelgröße optimiert. Supermicros L11- und L12-Validierungstests und der Vor-Ort-Bereitstellungsservice bieten den Kunden eine nahtlose Erfahrung. Kunden erhalten skalierbare Plug-and-Play-Einheiten für eine einfache Bereitstellung in einem Rechenzentrum und schnellere Ergebnisse.