Trusted Cloud by S3NS の GPU について

Trusted Cloud by S3NS は、世界水準の人工知能(AI)インフラストラクチャを提供し、幅広いセグメントで最も要求の厳しい GPU アクセラレーショ ワークロードを強化することに注力しています Trusted Cloud by S3NS の GPU を使用して、AI、機械学習(ML)、科学、分析、エンジニアリング、コンシューマー、エンタープライズ アプリケーションを実行できます。

Trusted Cloud by S3NS は NVIDIA とのパートナーシップを通じて、最新の GPU を提供すると同時に、ストレージとネットワーキングの幅広いオプションでソフトウェア スタックを最適化しています。利用可能な GPU の完全なリストについては、GPU プラットフォームをご覧ください。

以降のセクションでは、 Trusted Cloud by S3NSでの GPU のメリットについて説明します。

GPU アクセラレーション VM

Trusted Cloud by S3NSでは、ニーズに最適な方法で GPU にアクセスしてプロビジョニングできます。専用のアクセラレータ最適化マシン ファミリーが用意されており、パフォーマンスを最大限に高めるために最適な、事前接続された GPU とネットワーク機能を備えています。これらは、A4X、A4、A3、A2、G2 のマシンシリーズで使用できます。

複数のプロビジョニング オプション

アクセラレータ最適化マシン ファミリーを使用すると、次のいずれかのオープンソースまたは Trusted Cloud by S3NS プロダクトを使用してクラスタをプロビジョニングできます。

Vertex AI

Vertex AI は、ML モデルと AI アプリケーションのトレーニングとデプロイに使用できるフルマネージド型の機械学習(ML)プラットフォームです。Vertex AI アプリケーションでは、GPU アクセラレーション VM を使用して、次の方法でパフォーマンスを向上させることができます。

Cluster Director

Cluster Director(旧称 Hypercompute Cluster)は、単一の同種ユニットとして機能するアクセラレータとネットワーキング リソースを最大で数万までデプロイして管理できるように設計された一連の機能とサービスです。このオプションは、Google Kubernetes Engine(GKE)スケジューラや Slurm スケジューラの統合を含む、パフォーマンスが最適化された密な割り当てのインフラストラクチャを作成する場合に最適です。Cluster Director は、AI、ML、HPC のワークロードの実行用に特別に設計されたインフラストラクチャの構築に役立ちます。詳細については、Cluster Director をご覧ください。

Cluster Director の使用を開始するには、デプロイ戦略を選択するをご覧ください。

Compute Engine

Compute Engine で、GPU が接続された個々の VM または小規模な VM クラスタを作成して管理することもできます。この方法は、グラフィックを多用するワークロード、シミュレーション ワークロード、小規模な ML モデルのトレーニングの実行に主に使用されます。

次の表に、GPU がアタッチされた VM の作成に使用できる方法を示します。

デプロイ方法

デプロイガイド

サービングと単一ノード ワークロード用の VM を作成する

A3 Edge または A3 High VM を作成する

マネージド インスタンス グループ(MIG)を作成する

この方法では、Dynamic Workload Scheduler(DWS)を使用して VM をプロビジョニングします。

GPU VM を使用する MIG を作成する

VM を一括作成する

GPU VM のグループを一括作成する

単一の VM を作成する

単一の GPU VM を作成する

仮想ワークステーションを作成する

仮想 GPU で高速化されたワークステーションを作成する

Cloud Run

Cloud Run インスタンスに GPU を構成できます。GPU は、Cloud Run で大規模言語モデルを使用して AI 推論ワークロードを実行する場合に最適です。

Cloud Run を使用して GPU 上で AI ワークロードを実行する方法については、次のリソースをご覧ください。