Supermicro、業界初の NVIDIA MGX™ システムとなる NVIDIA GH200 Grace™ Hopper™ Superchip 対応サーバーの出荷を開始
サンノゼ , カリフォルニア州, 2023年10月26日 /PRNewswire/ -- Super Micro Computer, Inc.(NASDAQ: SMCI)は、AI、クラウド、HPC、ストレージ、5G/Edge、グリーンコンピューティングをリードする、トータルITソリューションを提供するメーカーです。同社は、最新のNVIDIA GH200 Grace Hopper、および、NVIDIA Grace CPU Superchipを搭載したNVIDIA リファレンスアーキテクチャに基づいた新しいGPUシステム製品を、業界でも有数の広範なポートフォリオに追加したことを発表しました。この新しいモジュラー型アーキテクチャは、AIインフラストラクチャと、アクセラレーテッドコンピューティングを、コンパクトな1Uおよび2Uフォームファクターで標準化するように設計されており、現在および将来のGPU、DPU、CPUに、高い柔軟性と拡張機能を提供します。2基のNVIDIA GH200 Grace Hopper Superchipを高速インターコネクトで統合した1U 2ノード構成では、Supermicroの高度な液冷テクノロジーが、この非常に高密度な構成を可能にしています。さらに、Supermicroは、月産数千台のラックスケールAIサーバーをワールドワイドで提供でき、プラグアンドプレイを実現します。
Supermicro の 社長兼最高責任者(CEO)であるチャールズ・リアン(Charles Liang)は、次のように述べています。「Supermicroは、今日のAI革命を推進し、データセンターを変革するリーダーとして、多くのワークロードにAIの可能性を提供しています。急速に進化しているAIテクノロジーに対して、高度にモジュール化され、拡張性があり、汎用性の高いシステムを提供することが、私たちにとって極めて重要です。SupermicroのNVIDIA MGX ベースのソリューションは、当社のビルディング・ブロックのストラテジーによって、最新のシステムを迅速に市場投入でき、業界トップのワークロード最適化を可能にします。NVIDIAと協力することで、企業が新しいAI対応アプリケーションを開発して市場投入するまでの時間を短縮し、展開を簡素化し、環境への影響も軽減できるよう支援します。新しいサーバーのラインナップには、NVIDIA GH200 Grace Hopper Superchip、BlueField、PCIe 5.0 EDSFFスロットなど、AI用途に最適な業界の最新テクノロジーが組み込まれています。」
Supermicroの NVIDIA MGX システムの詳細はこちらをご覧ください: www.supermicro.com/mgx
Supermicro MGXのウェビナーも開催予定です。登録はこちら
NVIDIA のハイパースケールと HPC 担当バイスプレジデントのイアン・バック(Ian Buck)氏は、次のように述べています。「NVIDIAとSupermicroは、業界で最も高性能なAIシステムの開発において長年協力してまいりました。NVIDIA MGX モジュラー型リファレンスデザインは、Supermicroのサーバー専門知識と組み合わさり、Grace および Grace Hopper Superchipを含む、新世代のAIシステムとして、世界中のお客様と業界に利益をもたらします。」
Supermicro の NVIDIA MGX プラットフォームの概要
Supermicro の NVIDIA MGX プラットフォームは、将来のAIテクノロジーに対応できる様々なサーバーを提供するように設計されています。この新しい製品ラインは、AI用途のサーバー特有の熱、電力、機械的な課題に対処しています。
Supermicroの新しい NVIDIA MGX サーバーラインナップには、以下の製品が含まれます:
- ARS-111GL-NHR – 1 NVIDIA GH200 Grace Hopper Superchip、1U、空冷式
- ARS-111GL-NHR-LCC – 1 NVIDIA GH200 Grace Hopper Superchip、1U、液冷式
- ARS-111GL-DHNR-LCC – 2 NVIDIA GH200 Grace Hopper Superchip、1U、2ノード、液冷式
- ARS-121L-DNR – 2 NVIDIA Grace CPU Superchip(ノードあたり)、2ノード、合計288コア、1U、空冷式
- ARS-221GL-NR – 1 NVIDIA Grace CPU Superchip、NVIDIA H100 Tensor Core GPUを含む、最大4枚のNVIDIA PCIe GPUを搭載可能、2U、空冷式
- SYS-221GE-NR – デュアルソケット 第4世代 インテル® Xeon® スケーラブル・プロセッサー、NVIDIA H100 Tensor Core GPUを含む、最大4枚のNVIDIA PCIe GPUを搭載可能、2U、空冷式
すべての MGX プラットフォームは、NVIDIA BlueField®-3 DPU および/または NVIDIA ConnectX®-7 SmartNICで強化でき、高性能、高帯域なInfiniBand または イーサネットのネットワークを実現できます。
技術仕様
Supermicroの1U NVIDIA MGXシステムは、2つのNVIDIA H100 GPUと 2つのNVIDIA Grace CPUからなる、最大2基の NVIDIA GH200 Grace Hopper Superchipを搭載しています。それぞれのCPU用に480GB LPDDR5Xメモリー、および、GPU用に96GB HBM3または144GB HBM3eメモリーを搭載しています。CPU、GPU、メモリーは、メモリーコヒーレント、高帯域幅、低レイテンシを実現するNVIDIA® NVLink® Chip-2-Chip (C2C) で接続され、PCIe 5.0の7倍の速さの900GB/秒で相互接続します。モジュラー型アーキテクチャは、複数のPCIe 5.0 x16 FHFLスロットを備え、クラウドやデータ管理用のDPUに対応し、追加のGPU、ネットワーク、ストレージの拡張性も備えています。
2基のNVIDIA GH200 Grace Hopper Superchipを搭載する1U 2ノード設計では、Supermicroの実績のあるダイレクトチップ液体冷却ソリューションによって、コンピューティング密度を高めてOPEXを40%以上削減することができ、大規模言語モデル(LLM)クラスターや、HPCアプリケーションの、ラックスケール展開を簡素化します。
Supermicro の NVIDIA MGX 2U プラットフォームは、CPUにNVIDIA Grace CPU または x86 CPU のどちらかを選択でき、NVIDIA H100 PCIe、H100 NVL、L40S などのフルサイズのデータセンター GPUを最大4枚搭載できます。さらに、I/O接続用に3つの追加 PCIe 5.0 x16 スロットと、8つのホットスワップ対応EDSFFストレージベイを備えています。
Supermicro は、MGX プラットフォームでのAIワークロードを確実にし、高速化するため、NVIDIAのネットワークを提供します。 これには、ユーザーからクラウドおよびデータストレージへのアクセスを高速化する 2x 200Gb/秒の接続を提供する NVIDIA BlueField-3 DPU と、GPUサーバー間を最大400Gb/秒で InfiniBand または Ethernet 接続を提供する ConnectX-7 アダプターの組み合わせが含まれます。
開発者はこれらの新しいシステムとNVIDIAのソフトウェア製品を様々な業種のワークロードですぐに利用できます。これらの製品には、NVIDIA AIプラットフォームを強化し、実稼働可能な生成AI、コンピュータービジョン、音声AIなどの開発と展開を合理化できる、エンタープライズ グレードのソフトウェアである NVIDIA AI Enterprise が含まれます。さらに、NVIDIA HPC ソフトウェア開発キットは、科学技術コンピューティングの進歩を促進するために必要不可欠なツールを提供します。
Supermicro の NVIDIA MGX システムは、インテリジェントな熱設計からコンポーネントの選択に至るまで、あらゆる側面で最も効率を高めるように設計されています。NVIDIA Grace CPU Superchipは144コアを備えており、今日の業界標準となっている x86 CPU と比較して、ワットあたり最大2倍のパフォーマンスを提供します。SupermicroのNVIDIA MGXシステムの一部は、1Uに2つのノードを搭載でき、2つのGrace CPU Superchipで合計288コアを構成し、ハイパースケールおよびエッジデータセンターにおいて画期的なコンピューティング密度とエネルギー効率を実現します。
詳細については、SupermicroのNVIDIA MGX システムのウェブサイトをご覧ください:www.supermicro.com/mgx