Supermicro 利用即將推出的搭載 HBM3e 記憶體的 NVIDIA HGX H200 和 MGX Grace Hopper 平台擴闊人工智能解決方案
加州聖荷西和丹佛 2023年11月14日 /美通社/ -- Supercomputing Conference(簡稱 SC23)-- Supermicro,Inc.(納斯達克股票代碼:SMCI), 是一間面向人工智能、雲端計算、儲存和 5G/邊緣的全面 IT 解决方案供應商,即將推出配備 H200 Tensor Core GPU 的全新 NVIDIA HGX H200 產品線,從而擴闊其在人工智能領域的影響力。Supermicro 領先業界的人工智能平台(包括 8U 和 4U 通用型 GPU 系統)均可直接插入 HGX H200 8GPU 和 HGX H200 4GPU,相較於 NVIDIA H100 Tensor Core GPU,HGX H200 的 HBM3e 記憶體容量和頻寬分別提高了近 2 倍和 1.4 倍。此外,Supermicro NVIDIA MGXTM 系統的廣泛產品組合還支援即將推出的搭載 HBM3e 記憶體的 NVIDIA Grace Hopper 超級晶片。憑藉前所未有的效能、可擴展性和可靠性,Supermicro 的機架式人工智能解決方案可加速計算密集型生成式人工智能、大型語言模型 (LLM) 訓練和 HPC 應用程式的效能,同時滿足不斷增長的模型規模發展需求。Supermicro 利用積木式架構,可以快速將新技術推向市場,使客戶能夠盡早提高生產力。
Supermicro 還推出了業界密度最高的伺服器,在 4U 液冷系統中搭載 NVIDIA HGX H100 8-GPU 系統,採用最新的 Supermicro 液冷解決方案。這款業界最精巧的高效能 GPU 伺服器,使數據中心營運商能夠减少佔地面積和能源成本,同時在單個機架中提供最高效能的人工智能訓練能力。憑藉密度最高的 GPU 系統,企業可以利用尖端的液冷解決方案降低總體擁有成本。
Supermicro 總裁兼行政總裁 Charles Liang 表示:「Supermicro 與 NVIDIA 合作,為人工智能訓練和 HPC 應用程式設計出最先進的系統。我們的積木式架構使我們能夠率先將最新技術推向市場,讓客戶以前所未有的速度部署生成式人工智能。憑藉我們遍佈全球的生產設施,我們可以更快地向客戶交付這些新系統。新系統採用了 NVIDIA H200 GPU,配備 NVIDIA ® NVLink ™ 和 NVSwitch ™ 高速 GPU 互連(速度為 900GB/s),在我們的機架規模人工智能解決方案中,每個節點可提供高達 1.1TB 的高頻寬 HBM3e 記憶體,為當今的大型語言模型和生成式人工智能提供最高效能的模型並行。我們也很高興能提供世界上最精巧的 NVIDIA HGX 8-GPU 液冷伺服器,它將我們的機架規模人工智能解決方案的密度提高了一倍,同時降低了能源成本,為當今的加速數據中心實現綠色計算。」
進一步了解配備 NVIDIA GPU 的 Supermicro 伺服器
Supermicro 設計並製造了多種不同外形尺寸的人工智能伺服器產品組合。受歡迎的 8U 和 4U 通用型 GPU 系統採用了四路和八路的 NVIDIA HGX H100 GPU ,現在可以直接插入全新 H200 GPU,在更短的時間內訓練更大的語言模型。每個 NVIDIA H200 GPU 包含 141GB 記憶體,頻寬為 4.8 TB/s。
NVIDIA 高效能運算、人工智能及量子計算數據中心產品解決方案總監 Dion Harris 表示:「Supermicro 即將推出的伺服器設計採用了 NVIDIA HGX H200 ,這將有助加速生成式人工智能和高效能運算的工作負載,從而使企業和組織能夠最大限度地利用其人工智能基礎設施。配備高速 HBM3e 記憶體的 NVIDIA H200 GPU 能夠為各種工作負載處理海量數據。
此外,最近推出的搭載 NVIDIA GH200 Grace Hopper 超級晶片的 Supermicro MGX 伺服器也採用了搭載 HBM3e 記憶體的 NVIDIA H200 GPU。
全新 NVIDIA GPU 能夠加速當今和未來的大型語言模型 (LLM),使其在更緊湊、更高效的集群中容納上千億的參數,從而以更短的時間訓練生成式人工智能,同時允許在一個系統中容納多個更大的模型,進行實時 LLM 推理,為數百萬用戶提供生成式人工智能服務。
在 SC23 大會上,Supermicro 展示了最新款的 4U 通用型 GPU 系統,該系統採用八路 NVIDIA HGX H100 及公司最新的液冷創新技術,進一步提高了密度和效率,推動了人工智能的發展。憑藉 Supermicro 領先業界、為綠色計算而設的 GPU 和 CPU 冷板、CDU(冷卻液分配裝置)和 CDM(冷卻液分配歧管),全新的 4U 通用型液冷 GPU 系統亦為八路 NVIDIA HGX H200 做好了準備,透過 Supermicro 完全集成的機架式液冷解決方案和 L10、L11 和 L12 驗證測試,將大幅减少數據中心的佔地面積、電力成本和部署障礙。
如欲了解更多資訊,請蒞臨 SC23 的 Supermicro 展台