Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200 4-GPU/8-GPU, AMD Instinct MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200 4-GPU/8-GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI/Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Supermicro SYS-821GE-TNHR 8x NVIDIA H200 GPU 空冷AIサーバー
本日も引き続き、Supermicro SYS-821GE-TNHRをご紹介します。SupermicroAIサーバーの実力について語るとき、これは空冷NVIDIAサーバーとして市場で異彩を放つシステムの1つです。
GAUDI 3 AIを搭載したSupermicro 、AI要件に対応したスケーラブルなパフォーマンスを提供します。
あらゆる規模とワークロードのデータセンターに最適化された幅広いソリューション 新サービスと顧客満足度の向上を実現
Supermicro Intel GAUDI 3システムがエンタープライズAIインフラを推進
IntelXeon 6プロセッサーを使用した高帯域幅AIシステムにより、エンタープライズ規模での効率的なLLMとGenAIのトレーニングと推論を実現
ラミニ、LLMのチューニングサービスにSupermicro GPUサーバーを採用
AMD Instinct™MI300Xアクセラレータを搭載したSupermicro GPUサーバーを使用して、ラミニはLLMチューニングを高速で提供することができます。
Supermicro GraceシステムがANSYS® LS-DYNA®で4倍のパフォーマンスを実現
Supermicro Grace CPUスーパーチップ・システム、同じ消費電力で4倍の性能を実現
Applied Digital、Supermicro GPUサーバーで大規模AIクラウドを構築
アプライドデジタル、Supermicro ハイパフォーマンスサーバでAIトレーニングおよびHPCシミュレーションのためのスケーラブルな最新のAIおよびHPCインフラストラクチャをユーザーに提供
AIに柔軟性を提供するSupermicro 4UAMD EPYC GPUサーバー(AS-4125GS-TNRT)
Supermicro 、このレビューで紹介しきれないほど多くの形やサイズのGPUサーバーを提供してきました。本日は、2つのAMD EPYC 9004シリーズCPU、PCIe Gen5、および8枚のダブルワイドまたは12枚のシングルワイドのアドインGPUカードをサポートする、比較的新しい4U空冷GPUサーバーをご紹介します。
Supermicro Nvidia、自動車および航空宇宙産業向けのCFDシミュレーションを高速化するソリューションを構築
NVIDIAデータセンターGPUを搭載したSupermicro サーバーがCFDシミュレーションを大幅に高速化し、製造企業の市場投入までの時間を短縮
液冷Supermicro SYS-821GE-TNHR 8x NVIDIA H100 AIサーバーを見る
本日は、液冷Supermicro SYS-821GE-TNHRサーバーをご紹介します。これは、Supermicro8倍速NVIDIA H100システムで、ひねりが加えられています。写真を入手したので、これを1つの記事にまとめようと考えました。
高性能サーバー・アーキテクチャにおけるPCIe GPUへのアクセス・オプション
Supermicro GPUサーバーの構成オプションを理解することで、ワークロードのパフォーマンスを最大化
ペトロブラス、アトスが統合したSupermicro サーバーを導入し、コスト削減と探査精度の向上を実現
Supermicro システムによりペトロブラスがTop500の33位にランクイン、2022年11月ランキング
Supermicro ProphetStorがマルチテナントLLMトレーニングのGPU効率を最大化
AIと機械学習のダイナミックな世界では、マルチテナント環境におけるGPUリソースの効率的な管理が、特に大規模言語モデル(LLM)のトレーニングにおいて最も重要です。
Supermicro サーバーがSEEWEB向けにGPUの提供を拡大、AIおよびHPCワークロードでより高速な結果を求める顧客に提供
Seeweb、HPCおよびAIワークロードの顧客要求に応えるためSupermicro GPUサーバを採用
3000WのAMD Epyc サーバーのティアダウン、Level1TechsのWendell氏撮影
私たちは、AIと機械学習に最適化されたサーバーを見ています。Supermicro 、2114GT-DNR (2U2N)に可能な限り多くのものを詰め込み、密度を最適化したサーバーです。この2Uシャーシには2つのシステムが搭載されています。冗長化された2つの電源はそれぞれ2,600Wで、なぜこれほどの電力が必要なのか見てみましょう。6基のAMD MI210 Instinct GPUとデュアルEpyc プロセッサを搭載しています。Supermicro このサーバーの設計に費やしたエンジニアリングのレベルをご覧ください。
NEC、Supermicro先進GPUシステムでAI研究を推進
NEC、NVIDIA® A100搭載Supermicro GPUサーバをAI研究用スーパーコンピュータ構築に採用

Supermicro TECHTalk:高密度AIトレーニング/ディープラーニングサーバー
当社の最新のデータセンター・システムは、高速GPU-GPUインターコネクトと第3世代インテル® Xeon® Scalableプロセッサーを備えた先進的なNVIDIA Ampere GPUを最高密度で搭載しています。このTECHTalkでは、4Uラックハイトパッケージで比類のないAIパフォーマンスを実現する方法を紹介します。
ハイブリッド2U2N GPUワークステーション・サーバ・プラットフォームSupermicro SYS-210GP-DNR ハンズオン
本日は、Supermicro SYS-210GP-DNRのハンズオンをご紹介します。Supermicro SYS-210GP-DNRは2U、2ノードの6 GPUシステムで、Patrickは最近Supermicro 本社でハンズオンを行いました。
Supermicro SYS-220GQ-TNAR+ NVIDIA Redstone 2Uサーバ
今日はPatrickが最近Supermicro 本社でハンズオンをしたSupermicro SYS-220GQ-TNAR+を紹介します。

GPUシステム設計の飛躍を発表 -Supermicro SC21 TECHTalk with IDC
Supermicro 、プリンシパル・プロダクト・マネージャー、Josh Grossman氏、IDC、インフラストラクチャー・システムズ、リサーチ・ディレクター、Peter Rutten氏による講演です。
ミッションクリティカルなサーバーソリューション
仮想化されたNVIDIA A100 GPUでAI開発と配信を最大化
NVIDIA HGX A100を搭載したSupermicro システムは、NVIDIA Virtual Compute Server (vCS)とNVIDIA A100 GPUをサポートする柔軟なソリューションセットを提供し、AIの開発と小規模および大規模なAIモデルの実行を可能にします。

Supermicro SuperMinute: 2U 2ノードサーバ
Supermicro画期的なマルチノードGPU/CPUプラットフォームは、市場の既存製品とは一線を画しています。当社の高度なBuilding Block Solutions®設計と省リソースアーキテクチャにより、このシステムは最先端のCPUおよびGPUエンジンと、先進の高密度ストレージを省スペースフォームファクタで活用し、比類のないエネルギー効率と柔軟性を実現します。

SuperMinute: HGX A100 8GPU搭載4Uシステム
最も要求の厳しいAIワークロードのために、Supermicro NVIDIA A100™ Tensor Core GPUをベースとした最高性能で市場最速のサーバを構築しています。最新バージョンのNVIDIA® NVLink™およびNVIDIA NVSwitch™テクノロジーにより、これらのサーバーは1つの4Uシステムで最大5ペタフロップスのAIパフォーマンスを実現します。

SuperMinute: HGX A100 4GPU搭載2Uシステム
新しいAS -2124GQ-NARTサーバは、NVIDIA A100 Tensor Core GPUとHGX A100 4-GPUベースボードのパワーを特徴としています。システムは、高速CPU-GPU接続および高速ネットワーク拡張カード用のPCI-E Gen 4をサポートしています。
Supermicro Ultra SuperServersによる高性能GPUアクセラレーション仮想デスクトップ基盤ソリューション
利用可能なモデル
Product Group | Hidden | Order | SKU | Description | Link | Image | Generation | Coming | New | Global | Cooling Type | Max GPU | Supported GPUs | GPU-GPU | CPU | CPU Type | DIMM Slots | Drive Size | Drives | Networking | Form Factor | Total PCI-E Slots# | Total Power | GPU Type | Interface | Redundant Power | Applications | Gold Series | Buy Now |
---|