美超微提供NVIDIA GPU系統的端到端組合
加州聖何塞2019年3月18日 /美通社/ -- 企業運算、存儲和網絡解決方案以及綠色運算技術領域的全球領導者美超微電腦股份有限公司(Super Micro Computer, Inc.) (SMCI)於3月18日至21日在聖何塞會展中心(San Jose Convention Center)舉辦的2019年GPU技術大會(GPU Technology Conference,簡稱「GTC」)展示業界最全面的NVIDIA® GPU服務器組合,展位號:829號。
透過美超微的系統設計專長利用NVIDIA GPU技術設計最先進的服務器系統,美超微為行業提供全面的NVIDIA GPU系統組合。從NVIDIA Tesla®、Quadro®和GRID®到NVIDIA HGX-2服務器架構,美超微為所有細分市場和應用提供經過優化的超級服務器,包括VDI、專業視覺化、轉碼、物聯網(IoT)、高性能運算、人工智能(AI)推理和深度學習。
美超微總裁兼行政總裁梁見後(Charles Liang)表示:「我們面向NVIDIA GPU進行優化的業界領先的系統組合越來越強大,美超微生產創新GPU服務器來滿足不斷加快的廣泛人工智能解決方案的市場需求。透過優化我們的服務器設計全面利用NVIDIA的最新Tensor Core GPU,我們的GPU服務器不僅最大程度地提高了系統級性能和效率,還提供包括最先進網絡和存儲選項在內的最靈活的功能選擇。」
NVIDIA加速運算副總裁兼總經理Ian Buck則表示:「透過使用美超微GPU優化超級服務器內的NVIDIA Tensor Core GPU,企業客戶將實現顯著的性能和效率提高。這些服務器為運算密集型人工智能工作負載提供高得多的吞吐量,同時最小化功耗。」
人工智能推理
為滿足快速興起的高吞吐量推理市場(由5G、智能城市和物聯網設備(會產生大量數據,並需要即時決策)等技術推動),美超微的全新超級服務器6049GP-TRT提供垂直擴展現代人工智能技術所需的超高性能。為實現最大的GPU密度和性能,這款4U服務器支持多達20個NVIDIA T4 Tensor Core GPU、三兆字節的內存以及24個熱插拔3.5寸硬盤。該系統還擁有四個2000瓦鈦級效率(2+2)冗餘電源,幫助優化電源效率、正常執行時間和可使用性。
NVIDIA T4是全球最高效的GPU,用於為全系列加速應用增壓主流企業服務器,包括人工智能訓練、推理和機器學習工作負載。企業客戶將可獲益於美超微全新高密度服務器內NVIDIA T4 GPU帶來的顯著提高的吞吐量、利用率和電源效率。
美超微擁有完整的4U GPU系統系列,支持旨在加速任何主流服務器深度學習訓練、推理和機器學習工作負載的超高效NVIDIA T4。NVIDIA T4的硬件加速轉碼引擎即時提供多個高清視頻流,並將深度學習集成到視頻轉碼流水線,實現新類別的智能視頻應用。為了實現回應性,這些模塊部署於功能強大的美超微服務器(帶有NVIDIA GPU),為推理工作負載提供最大的吞吐量。
做好部署NGC(NVIDIA GPU雲端)準備的容器解決方案
為幫助數據中心簡化人工智能和高性能運算應用的實際部署,美超微的超級服務器4029GP-TVRT已做好了部署NGC的準備。客戶現在可以透過NGC雲端容器註冊運行GPU加速軟件,包括擴展的高性能運算和人工智能軟件庫(擁有新的深度學習和分析容器),對於採用8個NVIDIA V100 Tensor Core GPU與NVIDIA NVLink™高速互連技術的4U系統4029GP-TVRT充滿信心。
人工智能訓練與高性能運算
隨著高性能運算應用不斷解鎖新的科學洞察,它們的複雜性越來越高。美超微基於NVIDIA HGX-2的全新超級服務器9029GP-TNVRT透過NVIDIA NVLink和NVSwitch™支持16個NVIDIA V100 Tensor Core 32GB GPU,利用超過80000個CUDA核心,提供無與倫比的性能,加速本地和雲端的人工智能與高性能運算。這個新系統可實現高達2千萬億每秒浮點運算次數(FLOPS)性能,而且只佔用10個機架空間。
從電腦的自然語音到自動駕駛汽車,人工智能的迅速發展已經改變了整個行業。為了實現這些功能,人工智能模塊的大小和複雜性呈現爆炸式增長。隨著高性能運算應用不斷解鎖新的科學洞察,它們的複雜性也越來越高。美超微基於HGX-2的超級服務器(SYS-9029GP-TNVRT)將為數據中心加速雲端人工智能和高性能運算提供超集設計。透過精心優化,這款超級服務器將為快速模型訓練提供最高的運算性能和內存。
如欲查詢擁有NVIDIA GPU的美超微產品系列的詳細信息,請瀏覽:https://www.supermicro.com/products/nfo/gpu.cfm [c212.net]。