GB200 を搭載した NVIDIA DGX SuperPOD

安定したアップタイムを提供する AI インフラ。

ミッションクリティカルな AI のための Enterprise インフラ

NVIDIA DGX SuperPOD™ と DGX GB200 システムの組み合わせは、兆単位のパラメーター規模の生成 AI モデルのトレーニングと推論向けに設計されています。各水冷ラックは、36 個の NVIDIA GB200 Grace Blackwell Superchip を搭載しており、36 個の NVIDIA Grace CPU と 72 個の Blackwell GPU が NVIDIA NVLink で 1 つに接続されています。複数のラックは NVIDIA Quantum InfiniBand と接続され、GB200 Superchip を数万個まで拡張することができます。

生成 AI のための高度な AI インフラストラクチャ

GB200 を搭載した DGX SuperPOD がどのように AI イノベーションを加速させているかをご覧ください。

企業のデプロイの成功

NVIDIA DGX™ プラットフォームNVIDIA NeMo™ がどのように業界をリードする企業に力を与えているかをご覧ください。

利点

安定したアップタイムを提供するエンタープライズ生成 AI インフラ

開発者の生産性を最大化する

インテリジェントな制御プレーンは、ハードウェア、ソフトウェア、データ センター インフラの何千ものデータ ポイントを追跡し、正常な動作が継続し、データの整合性が維持されるように取り計らいます。また、メンテナンスを計画し、ダウンタイムを回避するよう、クラスターを自動的に再構成します。

巨大な生成 AI のための大規模なスーパーコンピューティング

数万個の NVIDIA GB200 Superchip まで拡張可能な DGX GB200 システムを使用した DGX SuperPOD は、最先端の兆単位パラメーター生成 AI モデルでのトレーニングと推論を容易に実行できます。

NVIDIA Grace Blackwell をベースに構築

NVIDIA GB200 Superchips は、それぞれ 1 個の Grace CPU と 2 個の Blackwell GPU を組み合わせ、第 5 世代の NVLink を介して接続され、GPU 間の帯域幅 1.8 テラバイト/秒 (TB/s) を実現します。

関連情報

あらゆる企業にスーパーコンピューティングを提供する

NVIDIA DGX B200 または DGX H200 システムを使用した NVIDIA DGX SuperPOD

NVIDIA DGX B200 または DGX H200 システムを使用した NVIDIA DGX SuperPOD は、エンタープライズ AI ワークロードに取り組む大規模開発チームにとって最適な選択です。

DGX プラットフォームの価値を最大化する

NVIDIA エンタープライズ サービスでは、DGX インフラストラクチャを対象とするサポート スペシャリスト、教育スペシャリスト、インフラストラクチャ スペシャリストを手配します。AI 導入のあらゆる段階で NVIDIA のエキスパートが支援するエンタープライズ サービスは、プロジェクトを短期間で成功に導きます。

今すぐ始める

次のステップに進む

NVIDIA DGX プラットフォームを入手する

DGX プラットフォームは、あらゆる AI 企業のニーズに対応するさまざまな製品とサービスで構成されています。

NVIDIA DGX プラットフォームの利点

NVIDIA DGX は、エンタープライズ AI を構築するための実績のある標準です。

適切な製品やパートナーの選択にお困りですか?

専門的なニーズについては、NVIDIA 製品スペシャリストにご相談ください。

DGX の詳細を問い合わせる