NVIDIA DGX Station™ A100 は、AI スーパーコンピューティングをデータサイエンスチームにもたらし、データセンターや IT インフラストラクチャの増設なしにデータセンターテクノロジを提供します。NVIDIA DGX Station A100 は複数ユーザが同時に接続できるように設計されており、オフィスに適したフォームファクタでサーバグレードコンポーネントを活用します。完全に相互接続されたマルチインスタンス GPU(MIG)対応の 4基の NVIDIA A100 Tensor コア GPU と全体で最大 320GB の GPUメモリを備えた唯一のシステムであり、標準的な電源コンセントを利用できるため、どこにでも配置できる強力な AI アプライアンスです。
・チームが無制限に使用できる 2.5petaFLOPS の性能を提供可能な AI ワークグループサーバ。
・トレーニング、推論、およびデータ分析用。
・サーバグレードのプラグアンドゴー方式。データセンターの電力と冷却が不要。
・世界最高峰の AI プラットフォーム。複雑なインストールや IT のサポートが不要。
・完全に相互接続された 4基の NVIDIA A100 Tensorコア GPU と、最大 320GB の GPU メモリを搭載
した世界で唯一のワークステーション型システム。
・NVIDIA のノウハウと経験を活かして AI トランスフォーメーションを速やかに実現。
NVIDIA DGX Station A100 は、複数の同時接続ユーザーに集中型 AI リソースを手軽に提供できる AI 時代のワークグループアプライアンスです。 MIG を使うことで最大 28台の独立した GPU デバイスとして個々のユーザとジョブに割り当てる事が可能で、トレーニング、推論、分析のワークロードを行う際にシステム全体の性能に影響を与えません。
NVIDIA DGX Station A100 はすべての DGX システムと同じく完全に最適化された NVIDIA DGX™ ソフトウェアスタックを備えています。個々のシステムからNVIDIA DGX POD™ や NVIDIA DGX SuperPOD™ に至るまで、最高の性能と DGX ベースインフラストラクチャとの完全相互運用性を提供しており、規模の大小を問わずあらゆる組織のチームにとって理想的なプラットフォームとなります。
NVIDIA DGX Station A100 は、ワークステーションのフォームファクタでデータセンター級の AI サーバを実現し、専用の電源と冷却なしに標準的なオフィス環境で使用するのに適しています。4つの超強力な NVIDIA A100 Tensorコア GPU、最上位のサーバグレード CPU、超高速 NVMe ストレージ、および最先端の PCIe Gen4 バスを備える設計になっています。DGX Station A100 にも NVIDIA DGX A100 と同じベースボードマネジメントコントローラ(BMC)が搭載されており、システム管理者はリモート接続によって要求タスクを実行できます。DGX Station A100 は、オフィス環境向けの最も強力な AI システムであり、データセンターなしにデータセンターテクノロジを提供します。
NVIDIA DGX Station A100 は、企業のオフィス、実験室、研究施設、さらには自宅から作業する昨今のアジャイルデータサイエンスチーム向けに設計されています。大規模な AI インフラストラクチャを設置するには多大なIT投資と工業用の強力な電源供給と冷却機能を備えた大型データセンターが必要ですが、DGX Station A100 なら、お客様のチームの作業スペースがどこにあっても標準的な壁のコンセントに接続するだけです。DGX Station A100 は1人で簡単にセットアップができて、世界最高峰の AI プラットフォームを数分で立ち上げて稼働させることができます。
NVIDIA DGX Station A100 はワークステーションではありません。これは、デスクの下に設置できる AI ワークグループサーバです。64 コアのデータセンターグレード CPU に加えて、NVIDIA DGX A100 サーバと同じ NVIDIA A100 Tensorコア GPUを備え、それぞれ 40GB または 80GB の GPUメモリが高速な SXM4 を介して接続されています。NVIDIA DGX Station A100 は、NVIDIA® NVLink® を活用して 4つの GPU を完全相互接続し、かつ MIG 対応でシステム性能に影響を与えずに並列ジョブと複数のユーザー向けに最大 28台の独立した GPUデバイスを提供する唯一のオフィスに適したシステムです。
Up To 7 GPU Instances In a Single A100
NVIDIA DGX Station A100 は、NVIDIA の数千人の AI 専門家に支えられた完全なハードウェア&ソフトウェアプラットフォームであり、世界最大の DGX 実験場である NVIDIA DGX SATURNV から得られた知識に基づいて構築されています。DGX Station A100 を所有すれば、NVIDIA DGXperts に直接アクセスできます。NVIDIA DGXperts は、AI に精通した専門家の国際チームであり、NVIDIA の 10年を超える AI リーダーシップのノウハウと経験に基づき、AI 変革の急速な発展に貢献する規範的なガイダンスと設計の専門知識を提供します。これにより、ミッションクリティカルなアプリケーションが確実に素早く立ち上がってスムーズに稼働し続けることになり、インサイトを得るまでの時間が大幅に改善されます。
DGX Station A100 320GB |
DGX Station A100 160GB |
|
GPUs | 4x NVIDIA A100 80 GB GPUs |
4x NVIDIA A100 40 GB GPUs |
GPU Memory | 320 GB total | 160 GB total |
Performance | 2.5 petaFLOPS AI, 5 petaOPS INT8 | |
System Power Usage | 1.5 kW at 100-120 Vac | |
CPU | Single AMD 7742, 64 cores, 2.25 GHz (base)-3.4 GHz (max boost) |
|
System Memory | 512 GB DDR4 | |
Networking | Dual-port 10Gbase-T Ethernet LAN Single-port 1Gbase-T Ethernet BMC management port |
|
Storage | OS: 1x 1.92 TB NVME drive Internal storage: 7.68 TB U.2 NVME drive |
|
DGX Display Adapter | 4 GB GPU memory, 4x Mini DisplayPort | |
System Acoustics | < 37 dB | |
Software | Ubuntu Linux OS | |
System Weight | 91.0 lbs (43.1 kgs) | |
Packaged System Weight | 127.7 lbs (57.93 kgs) | |
System Dimensions | Height: 25.1 in (639 mm) Width: 10.1 in (256 mm) Length: 20.4 in (518 mm) |
|
Operating Temperature Range | 5-35 oC (41-95 oF) |
DGX Station V100 | DGX Station A100 320GB |
DGX Station A100 160GB |
|
GPU |
4x NVIDIA Tesla V100 PCIe GPU |
4x NVIDIA A100 Tensor GPU | |
GPU Memory (Total) |
128GB HBM | 320GB HBM2e | 160GB HBM2 |
CPU | Intel Xeon E5-2698 v4 2.2 GHz, 20 Cores PCIe Gen3 |
AMD Epyc 7742 2.25 GHz - 3.4 GHz, 64 Cores PCIe Gen4 |
|
System Memory | 256GB RDIMM DDR4 @2667MT/s | 512GB DDR4 @3200MT/s | |
Boot drive | 1X 1.92 TB SATA III SSD | 1 x 1.92 TB M.2 PCIe Gen3 | |
Cache storage | 3X 1.92 TB SATA III SSD RAID 0 | 1 x 7.68 TB U.2 PCIe Gen4 | |
Networking | 2 x 10GbE (RJ-45) | 2 x 10GbE (RJ-45) | |
Display GPU | 3X DisplayPort, 4K resolution | 4GB HBM 4 x mini DisplayPort |
|
Remote Management |
N/A | On board BMC, 1GbE (RJ-45) MGMT port, AST2500 based, IPMI, Redfish |
Over 3X Increase in AI Training Performance
Over 4X Increase in AI Inference Performance
Almost 2X Increase in Scientific HPC Workload Performance
※1 = best value. Average is 1.3x across all these inputs:DC-Cellulose_NPT; DC-Cellulose_NVE; DC-FactorIX_NPT; DC-FactorIX_NVE; DC-GTI_Complex; DC-JAC_NPT; DC; JAC_NVE; DC-Myoglobin; DC-Nucleosome; DC-STMV_NPT; DC-STMV_NVE
※2 = best value. Average is 1.5x across all these inputs:ADH Dodec (h-bond); Cellulose (h-bond); STMV (h-bond)
※3 = best value. Average is 1.3x across all these inputs:apoa1_npt_cuda; apoa1_nptsr_cuda; apoa1_nve_cuda; stmv_npt_cuda; stmv_nptsr_cuda; stmv_nve_cuda