Die neuen skalierbaren Systeme für künstliche Intelligenz und maschinelles Lernen von Supermicro bieten mit 8 NVIDIA Tesla V100 mit NVLink GPUs herausragende Leistung und Systemdichte
SAN JOSE, Kalifornien, 27. März 2018 /PRNewswire/ -- Super Micro Computer, Inc. (NASDAQ: SMCI), ein Weltmarktführer bei Computer-, Speicher- und Netzwerklösungen sowie bei Green Computing-Technologie, stellt ab heute bis zum 29. März auf der GPU Technology Conference im San Jose McEnery Convention Center, Stand 215, die breiteste Auswahl an GPU-Serverplattformen der Branche aus, die NVIDIA® Tesla® V100 PCI-E und V100 SXM2 GPU-Beschleuniger unterstützen.
Für die maximale Beschleunigung hochparalleler Anwendungen wie künstliche Intelligenz (AI), Deep Learning, selbstfahrende Fahrzeuge, intelligente Städte, Gesundheitswesen, Massendaten, HPC, virtuelle Realität und viele mehr wurde Supermicros neues 4U System mit der NVIDIA NVLink™ Verbindungstechnologie hinsichtlich der Gesamtleistung optimiert. Der SuperServer 4029GP-TVRT unterstützt acht NVIDIA Tesla V100 32 GB SXM2 GPU-Beschleuniger mit maximaler GPU-zu-GPU-Bandbreite für Cluster- und extrem große Anwendungen. Dieses System, das die neueste NVIDIA NVLink-Technologie mit mehr als der fünffachen Bandbreite von PCI-E 3.0 einschließt, verfügt über unabhängige GPU- und CPU-Temperaturzonen, um eine kompromisslose Leistung und Stabilität selbst bei den anspruchsvollsten Arbeitslasten zu gewährleisten.
„Unser 4029GP-TVRT System erreichte bei ersten internen Benchmarktests 5.188 Bilder pro Sekunde auf ResNet-50 und 3.709 Bilder pro Sekunde auf InceptionV3 Arbeitslasten", sagte Charles Liang, President und CEO von Supermicro. „Wir sehen mit GPU Direct RDMA auch sehr beeindruckende, fast lineare Leistungssteigerungen bei der Skalierung auf mehrere Systeme. Mit unseren jüngsten Innovationen, welche die neuen NVIDIA V100 32 GB PCI-E und V100 32 GB SXM2 GPUs mit 2X Speicher in leistungsoptimierten 1U und 4U Systemen mit NVLink der nächsten Generation einschließen, können unsere Kunden ihre Anwendungen und Innovationen beschleunigen, um die komplexesten und anspruchsvollsten Probleme der Welt zu lösen."
„Unternehmenskunden profitieren mit den hochdichten Servern von Supermicro, die für NVIDIA Tesla V100 32 GB Rechenzentrum-GPUs optimiert sind, von einer neuen Stufe der Recheneffizienz", sagte Ian Buck, Vice President und General Manager von Accelerated Computing bei NVIDIA. „Der doppelte Arbeitsspeicher mit V100 erzielt bei komplexen Deep Learning- und wissenschaftlichen Anwendungen bis zu 50 Prozent schnellere Ergebnisse und verbessert die Produktivität der Entwickler, da die Notwendigkeit der Speicheroptimierung reduziert wird."
„Bei Preferred Networks setzen wir weiterhin die leistungsstarken 4U GPU-Server von Supermicro ein, um unsere privaten Supercomputer erfolgreich zu betreiben", sagte Ryosuke Okuta, CTO von Preferred Networks. „Diese hochmodernen Systeme treiben schon unsere aktuellen Supercomputeranwendungen und wir haben bereits damit begonnen, bei unseren neuen privaten Supercomputern die optimierten neuen 4U GPU-Systeme mit NVIDIA Tesla V100 32 GB GPUs von Supermicro einzusetzen."
Supermicro stellt ebenfalls das leistungsoptimierte 4U SuperServer 4029GR-TRT2 System vor, das bis zu 10 PCI-E NVIDIA Tesla V100 Beschleuniger mit Supermicros innovativem und GPU-optimiertem Single Root Complex PCI-E Design unterstützt, was die Leistung der GPU Peer-zu-Peer-Kommunikation deutlich verbessert. Für noch höhere Dichte unterstützt der SuperServer 1029GQ-TRT bis zu vier NVIDIA Tesla V100 PCI-E GPU-Beschleuniger auf nur 1U Rack-Fläche und der SuperServer 1029GQ-TVRT unterstütz vier NVIDIA Tesla V100 SXM2 32 GB GPU-Beschleuniger in 1U.
Aufgrund der Konvergenz von Massendatenanalyse und maschinellem Lernen, der neuesten NVIDIA GPU-Architekturen und verbesserter Algorithmen für maschinelles Lernen, erfordern Deep Learning-Anwendungen die Verarbeitungskapazität mehrerer GPUs, die für die Ausweitung des GPU-Netzwerks effizient und effektiv kommunizieren müssen. Das Single-Root GPU-System von Supermicro erlaubt effiziente Kommunikation zwischen mehreren NVIDIA GPUs, um die mit dem NCCL P2PBandwidthTest gemessene Latenz zu minimieren und den Durchsatz zu maximieren.
Umfassende Informationen über die Produktlinie des NVIDIA GPU Systems von Supermicro finden Sie unter https://www.supermicro.com/products/nfo/gpu.cfm.