Supermicro bringt neuen KI-inferenzoptimierten GPU-Server mit bis zu 20 NVIDIA Tesla T4-Beschleuniger in 4HE auf den Markt
SAN JOSE, Kalifornien, 20. September 2018 /PRNewswire/ -- Super Micro Computer, Inc. (NASDAQ: SMCI), ein weltweiter Spitzenreiter in den Bereichen Enterprise Computing, Speicherung, Netzwerklösungen und Green Computing-Technologie, präsentiert heute seine Neuzugänge in seiner umfangreichen Reihe GPU-optimierter Server.
Künstliche Intelligenz (KI) wird derzeit und in absehbarer Zukunft zu einem immer wichtigeren Bestandteil für den Unternehmenserfolg. Heute ist es für erfolgreiche Unternehmen unerlässlich, leistungsstarke Computerplattformen einzusetzen, die ihre KI-basierten Produkte beschleunigen und kosteneffektiv skalieren können.
Supermicros neuer SuperServer 6049GP-TRT bietet die Spitzenleistung, die notwendig ist, um die unterschiedlichen Anwendungen moderner KI zu beschleunigen. Für maximale GPU-Dichte und Leistung unterstützt dieser 4HE-Server bis zu 20 NVIDIA® Tesla® T4 Tensor Core GPUs, drei Terabyte Speicher und 24 im laufenden Betrieb austauschbare 3,5 Zoll-Laufwerke. Dieses System verfügt auch über vier redundante Stromversorgungen mit einem Titanwirkungsgrad von 2000 Watt (2+2), um die Energieeffizienz, die Betriebszeit und die Wartungsfreundlichkeit zu optimieren.
„Supermicro führt Neuerungen ein, um auf die rasant wachsenden Inferenzmärkte mit hoher Durchsatzrate zu reagieren, die durch Technologien wie 5G, Smart-Cities und IOT-Geräte angetrieben werden, wodurch eine riesige Menge Daten generiert wird und Entscheidungen in Echtzeit erforderlich werden," sagte Charles Liang, Präsident und Vorstandsvorsitzender von Supermicro. „Wir halten die Kombination aus NVIDIA TensorRT und der neuen Turing-Architektur basierend auf dem T4 GPU-Beschleuniger für ideal für diese neuen anspruchsvollen und latenzsensitiven Workloads und setzen sie offensiv in unserer GPU-System-Produktlinie ein."
„Firmenkunden profitieren durch die NVIDIA Tesla T4 GPUs in Supermicros neuen High-Density-Servern von einer drastischen Steigerung von Durchsatz und Energieeffizienz," sagte Ian Buck, Vizepräsident und Generaldirektor für Accelerated Computing bei NVIDIA. „Da KI-Inferenzen einen immer größer werdenden Anteil an den Workloads der Rechenzentren haben, bieten diese Tesla T4 GPU-Plattformen enorm effiziente Echtzeit- und Batch-Inferenzen."
Supermicros leistungsorientiertes 4HE SuperServer 6049GP-TRT-System unterstützt bis zu 20 PCI-E NVIDIA Tesla T4 GPU-Beschleuniger, was die Dichte der GPU-Server-Plattformen drastisch vergrößert, um flächendeckend in Rechenzentren eingesetzt zu werden und Inferenzanwendungen für Deep Learning zu unterstützen. Wenn mehr und mehr Branchen künstliche Intelligenz einsetzen, benötigen diese auch inferenzoptimierte High-Density-Server. 6049GP-TRT ist die ideale Plattform, um den Übergang vom Trainieren neuronaler Deep-Learning-Netzwerke hin zum Einsatz künstlicher Intelligenz in realen Anwendungen wie Gesichtserkennung und Sprachübersetzung anzuleiten.
Supermicro besitzt eine ganze Familie der 4HE GPU-Systeme, die den extrem effizienten Tesla T4 unterstützen, der so entwickelt wurden, dass er Inferenz-Workloads in jedem Scale-Out-Server beschleunigt. Die hardwarebeschleunigte Transcodierungs-Engine in Tesla T4 liefert mehrere HD-Videostreams in Echtzeit und ermöglicht es, Deep Learning in die Videotranskodierungspipeline zu integrieren, und schafft so eine neue Kategorie der smarten Videoanwendungen. Da Deep Learning unsere Welt mehr als jedes andere Datenverarbeitungsmodel zuvor verändert, werden tiefere und komplexere neurale Netzwerke an exponentiell ansteigenden Datenmengen trainiert. Diese Modelle werden zugunsten der Reagibilität auf leistungsstarke Supermicro GPU-Servern angewendet, um maximalen Durchsatz für Inferenz-Workloads zu liefern.
Für umfassende Informationen zu den NVIDIA GPU-System Produktlinien von Supermicro, besuchen https://www.supermicro.com/products/nfo/gpu.cfm.