この NGC カタログは、NVIDIA 社が公開をしている NGC コンテナレジストリおよび GPU に最適化された各種コンテナの Docker イメージを提供するサービスです。AI、ハイパフォーマンス コンピューティング (HPC)、データ分析ソフトウェアのハブであり、エンドツーエンドのワークフローをシンプルにし高速化します。
エンタープライズグレードのコンテナ、学習済み AI モデル、業界固有の SDK をクラウド、オンプレミス問わずに配備できるためクラス最高のソリューションを構築し、今までより短期間で事業価値を創出できます。
NVIDIA が最適化したディープラーニング ソフトウェア、サードパーティが管理する HPC アプリケーション、NVIDIA の HPC ビジュアライゼーション ツール、パートナーのアプリケーションなど、GPU 対応コンテナの包括的なカタログをご利用いただけます。
|
短時間で立ち上げ、運用。ソフトウェアの面倒な設定も少なくすみます。 HPCテックでは NVIDIA NGC カタログを直ぐにご利用頂けるようセットアップ済みでお届けしています。 |
NVIDIA ディープラーニング コンテナは毎月更新され、最高のシステム パフォーマンスが維持されます。サードパーティ コンテナでは、現行のソフトウェア リリースに簡単にアクセスできます。 |
ディープラーニングフレームワークは、高水準プログラミングインターフェイスを介してディープニューラルネットワークの設計やトレーニング、検証をするためのビルディングブロックを提供します。Caffe2、Cognitive toolkit、MXNet、PyTorch、TensorFlow などの広く使用されているディープラーニングフレームワークは、cuDNN や TensorRT などの GPU アクセラレーションライブラリに依存して高性能の GPU アクセラレーショントレーニングと推論を提供します。
最新の GPU 最適化を備え、CUDA ライブラリおよびドライバーと統合されたコンテナ化されたフレームワークを NGC カタログで見つけることができます。コンテナ化されたフレームワークは、毎月のリリースの一部として検証およびテストされ最高のパフォーマンスを提供します。
|
コンテナレジストリから各種ディープラーニングソフトウェアのコンテナイメージを取得し NVIDIA Docker で実行する方法を、豊富なコマンド例で詳細に解説。
第1章 Docker コンテナー |
ディープラーニング用 GPU ワークステーション および GPU ラックマウントサーバをご購入のお客様に HPCテック編集の NVIDIA NGC マニュアルをお付けしています。
|
NVIDIA TAO は、NGC カタログの事前トレーニング済みモデル、TAO Toolkit、連合学習、NVIDIA TensorRT などの主要な NVIDIA テクノロジーを統合することで、AI 利用への障壁を低くします。このプラットフォームは、さまざまなレベルの AI 専門知識を持つユーザのニーズを満たすために、新しい UI ベースのガイド付きワークフローを通じて AI アプリケーションの作成を簡素化します。さらに、NVIDIA Fleet Command の統合により、IT マネージャーは最適化された AI アプリケーションを展開および調整できます。
NVIDIA TAO、Metropolis、Fleet Command を使用して、AI を複雑な産業環境に適応させます。