オンプレミス、クラウド、エッジで仮想マシン (VM) を完全に分離します。CPU と H200 または H100 GPU 間のデータ転送は PCIe ラインレートで暗号化および復号化されます。物理的に隔離された TEE (Trusted Execution Environment) は、H200 または H100 GPU でワークロード全体を保護する内蔵ハードウェア ファイアウォールによって作成されます。
データ、AI モデル、アプリケーションの使用時は、オンプレミス、クラウド、エッジのいずれに展開されていても、外部の攻撃や内部の脅威に対し脆弱となります。NVIDIA Hopper™ アーキテクチャで導入された画期的なセキュリティ機能である NVIDIA コンフィデンシャル コンピューティングは、AI ワークロード向けの NVIDIA H200 および NVIDIA H100 Tensor コア GPU のかつてない高速化をユーザーに利用させながら、そのような脅威を軽減します。強力なハードウェアベースのセキュリティを利用し、不正アクセスから機密データや専有の AI モデルを保護します。
オンプレミス、クラウド、エッジで仮想マシン (VM) を完全に分離します。CPU と H200 または H100 GPU 間のデータ転送は PCIe ラインレートで暗号化および復号化されます。物理的に隔離された TEE (Trusted Execution Environment) は、H200 または H100 GPU でワークロード全体を保護する内蔵ハードウェア ファイアウォールによって作成されます。
使用中のデータと AI ワークロードの両方の機密性と完全性を保護します。ハイパーバイザー、ホスト OS、クラウド プロバイダー、インフラに物理的にアクセスできるあらゆる人物など、権限のないエンティティは実行中の AI アプリケーションやデータの閲覧や変更が不可能になるため、顧客の機密データや知的財産を保護することができます。
H200 または H100 の TEE 内では、許可されたエンド ユーザーだけがデータやコードを配置できるようにします。さらに、デバイス認証によって、ユーザーが本物の NVIDIA GPU を使用していること、ファームウェアが改ざんされていないこと、GPU ファームウェアが正常に更新されていることなどが検証されます。
ほとんどの場合、GPU で高速化されるワークロードのコード変更は必要なく、コンフィデンシャル コンピューティングのあらゆる利点を活用することができます。NVIDIA の GPU 最適化ソフトウェアを使用し、セキュリティ、プライバシー、規制コンプライアンス��維持しながら、H200 および H100 GPU でエンドツーエンドの AI ワークロードを高速化しましょう。
NVIDIA コンフィデンシャル コンピューティングは、H200 および H100 GPU にデプロイされる AI モデルとアルゴリズムの機密性と完全性を保持します。独立系ソフトウェア ベンダー (ISV) は、サードパーティやコロケーション データ センター、エッジ インフラ、パブリック クラウドなど、共有インフラやリモート インフラで、専有の AI モデルを大規模に配布し、展開できるようになりました。これにより、小売業や製造業などの業界の ISV は、自社の AI ソリューションに広くアクセスできるようになると同時に、展開インフラストラクチャに物理的にアクセスできる人物であっても、不正アクセスや改ざんから知的財産 (IP) を保護することができます。
AI モデルをトレーニングして収束することは、大量の計算を必要とし、複雑な繰り返しプロセスです。膨大なデータで運用する必要があります。トレーニング後、AI モデルは企業アプリケーション内に統合され、提示された新しいデータについて推論し、予測します。PII (個人を特定できる情報) など、AI モデルのトレーニングと推論の両方に使用されるデータが機密であり、規制されている金融、医療、公共事業などの産業が急増しています。NVIDIA コンフィデンシャル コンピューティングを導入すれば、オンプレミス、クラウド、エッジに関係なく、AI のトレーニングと推論の間も、企業はデータの機密性を維持できます。
不正検出、医用画像処理、創薬などの用途で AI モデルを構築し、改善するには、ニューラル ネットワークをトレーニングするため、多様で注意深くラベルが付けられたデータセットが必要です。このため、データ ソースの機密性と完全性を損なうことなく���複数の関係者の間でコラボレーションが必要になります。NVIDIA コンフィデンシャル コンピューティングは、安全なマルチパーティ コンピューティングを可能にします。組織は協力して、AI モデルのトレーニングや評価をすることができ、参加する各サイトで、データと AI モデルの両方を不正アクセス、外部からの攻撃、内部の脅威から確実に保護されるようにします。
仕様は変更される場合があります。