メインコンテンツに移動
AIデータセンターソリューション

AIの時代において、コンピュートユニットはもはやサーバーの数だけでは測れません。 相互接続されたGPU、 CPU、 メモリー、 ストレージ、そしてラック内の複数のノードにまたがるこれらのリソースが、今日の人工知能を構築しています。 このようなインフラストラクチャには、高速かつ低レイテンシーのネットワークファブリックと、各データセンター環境に最適なパフォーマンスと効率を維持するために緻密に設計された冷却技術と電力供給が必要です。SupermicroのSuperClusterソリューションは、急速に進化する生成AIと大規模言語モデル(LLM)にエンドツーエンドのAIデータセンターソリューションを提供します。

  • 大規模な統合に備えた生産能力

    月間5,000ラックのフルラックおよびクラスターを設計・製造。

  • オンサイトサービスによるテスト、検証、導入

    実証済みのL11、L12テストプロセスにより、出荷前に動作の有効性と効率を徹底的に検証。

  • 液冷/空冷に対応

    GPUおよびCPUコールドプレート、冷却分配ユニット、マニホールドを備えた、完全に統合された液冷または空冷ソリューション。

  • ワンストップショップ

    完全に統合されたラックを迅速かつオンタイムで提供するワンストップショップにより、導入までの時間を短縮。

AI SuperClusters

フルターンキーのデータセンターソリューションは、 ミッションクリティカルな企業のユースケースにおける納期を短縮し、 スーパーコンピューティングの集中的な設計チューニングと時間のかかる最適化によってのみ実現可能であった大規模クラスター構築の問題を解決します。

NVIDIA GB200 NVL72

1ラックで液冷エクサスケール・スーパーコンピューターを実現

  • 72基のNVIDIA Blackwell GPUがHBM3eメモリーの巨大なプールを備えた1つのGPUとして動作
  • 9個のNVIDIA® NVLink®スイッチが、コンピュートトレイあたり4ポートで72 GPUを接続し、1.8TB/秒のGPU間相互接続を実現
  • 250kW容量In-Row冷却液分配ユニット(冗長PSUおよびデュアルホットスワップポンプ付き)、または240kW/180kW容量のLiquid-to-airソリューション(設備用水不要)
  • エンドツーエンドの液冷ソリューションと包括的なオンサイト導入サービス
  • NVIDIA BlueField®-3 SuperNIC、Spectrum™-X、Quantum-2、および次世代800Gb/秒ネットワーキングプラットフォームを含む高度なネットワーキングに対応
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA GB200 Grace Blackwell Superchip
カタログをダウンロード

Compute Tray

Individual Supermicro 1U GB200 Grace Blackwell GPU system (ARS-121GL-NBO), 1 of 72
  • ARS-121GL-NBO
72 NVIDIA Blackwell B200 GPU systems in 5 racks

業界をリードする液冷AIクラスター

32台の NVIDIA HGX H100/H200 8-GPU、4U液冷システム(256 GPU)を5ラックに搭載

  • カスタム液冷(水冷)ソリューションにより、 データセンターの電力コストを最大40%削減し、コンピューティング密度を倍増
  • 256基のNVIDIA H100/H200 GPUを1つのスケーラブルなユニットに統合
  • H100では20TBのHBM3、H200では36TB のHBM3eを1つのスケーラブルなユニットに統合
  • 各GPUへの1:1ネットワークにより、NVIDIA GPUDirect® RDMAおよび最大数兆のパラメータを持つ大規模言語モデルのトレーニング用ストレージが可能
  • 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なAlデータパイプラインストレージファブリック
  • NVIDIA Quantum-2 InfiniBandおよび Spectrum-X Ethernetプラットフォームをサポート
  • NVIDIA NIM™マイクロサービスを含むNVIDIA AI Enterprise Platformの認定を取得
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
データシートをダウンロード

Compute Node

Supermicro 4U Liquid-Cooled 8-GPU System (SYS-421GE-TNHR2-LCC or AS -4125GS-TNHR2-LCC)
32 NVIDIA HGX H100/H200 8-GPU, 4U Liquid-cooled Systems (256 GPUs) in 5 Racks

実証済みの設計

32台の NVIDIA HGX H100/H200 8-GPU、8U空冷システム(256 GPU)を9ラックに搭載

  • カスタム液冷(水冷)ソリューションにより、データセンターの電力コストを最大40%削減し、 コンピューティング密度を倍増
  • 256基のNVIDIA H100/H200 GPUを1つのスケーラブルなユニットに統合
  • H100では20TBのHBM3、H200では36TB のHBM3eを1つのスケーラブルなユニットに統合
  • 各GPUへの1:1ネットワークにより、NVIDIA GPUDirect RDMAおよび最大数兆のパラメータを持つ大規模言語モデルのトレーニング用ストレージが可能
  • 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なAlデータパイプラインストレージファブリック
  • NVIDIA Quantum-2 InfiniBandおよび Spectrum™-X Ethernetプラットフォームをサポート
  • NVIDIA NIM™マイクロサービスを含むNVIDIA AI Enterprise Platformの認定を取得
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
データシートをダウンロード

Compute Node

Supermicro 8U Air-Cooled 8-GPU System (SYS-821GE-TNHR or AS -8125GS-TNHR)
32 NVIDIA HGX H100/H200 8-GPU, 8U Air-cooled Systems (256 GPUs) in 9 Racks

クラウドスケールの推論

256基のNVIDIA GH200 Grace Hopper™ Superchip、1U MGXシステムを9ラックに搭載

  • クラウドスケールの大容量、低レイテンシー、高バッチサイズの演算や推論のために統合された GPUメモリーとCPUメモリー
  • 9ラックに、1U空冷NVIDIA MGX システム、 計256基のNVIDIA GH200 Grace™ Hopper Superchipを1つのスケーラブルなユニットに統合
  • 最大144GBのHBM3e+480GBの LPDDR5X、700億以上のパラメータモデルを1つのノードに収めるのに最適な容量
  • スパイン ・ リーフ型ネットワークファブリックに接続された400Gb/秒帯域幅のノンブロッキングネットワーク
  • 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なAIデータパイプラインストレージファブリック
  • NVIDIA NIM™マイクロサービスを含む NVIDIA AI エンタープライズに対応
NVIDIA GH200 Grace Hopper Superchip
NVIDIA GH200 Grace Hopper Superchip
データシートをダウンロード

Compute Node

Supermicro 1U GH200 Grace Hopper Superchip System
256 NVIDIA GH200 Grace Hopper Superchips, 1U MGX Systems in 9 Racks

エンタープライズ3D + AI

32台の4U PCIe GPU空冷システム(最大256基のNVIDIA L40S GPU)を5ラックに搭載

  • エンタープライズAI対応ワークフロー向けにマルチワークロード性能を最大化し、OpenUSDとNVIDIA Omniverseに最適化
  • 256基のNVIDIA L40S GPUを1つのスケーラブルなユニットに統合
  • 12TBのGPUメモリーと32TBのシステムメモリーを1つのスケーラブルなユニットに搭載
  • 400Gb/秒のNVIDIA Spectrum™-X Ethernetによるスケールアウト
  • 業界をリードするパラレルファイルシステムオプションを備えたカスタマイズ可能なデータストレージファブリック
  • NVIDIA Omniverse Enterprise認定、エンタープライズサポートサービス付き
NVIDIA L40S
NVIDIA L40S
データシートをダウンロード

Compute Node

Supermicro 1U GH200 Grace Hopper Superchip System
32 4U PCIe GPU Air-Cooled Systems (up to 256 NVIDIA L40S GPUs) in 5 Racks
関連資料

Certain products may not be available in your region