このページの一部またはすべての情報は、S3NS の Trusted Cloud に適用されない場合があります。詳細については、
Google Cloud との違いをご確認ください。
Trusted Cloud by S3NS の GPU について
Trusted Cloud by S3NS は、世界水準の人工知能(AI)インフラストラクチャを提供し、幅広いセグメントで最も要求の厳しい GPU アクセラレーショ ワークロードを強化することに注力しています Trusted Cloud by S3NS の GPU を使用して、AI、機械学習(ML)、科学、分析、エンジニアリング、コンシューマー、エンタープライズ アプリケーションを実行できます。
Trusted Cloud by S3NS は NVIDIA とのパートナーシップを通じて、最新の GPU を提供すると同時に、ストレージとネットワーキングの幅広いオプションでソフトウェア スタックを最適化しています。利用可能な GPU の完全なリストについては、GPU プラットフォームをご覧ください。
以降のセクションでは、 Trusted Cloud by S3NSでの GPU のメリットについて説明します。
GPU アクセラレーション VM
Trusted Cloud by S3NSでは、ニーズに最適な方法で GPU にアクセスしてプロビジョニングできます。専用のアクセラレータ最適化マシン ファミリーが用意されており、パフォーマンスを最大限に高めるために最適な、事前接続された GPU とネットワーク機能を備えています。これらは、A4X、A4、A3、A2、G2 のマシンシリーズで使用できます。
複数のプロビジョニング オプション
アクセラレータ最適化マシン ファミリーを使用すると、次のいずれかのオープンソースまたは Trusted Cloud by S3NS プロダクトを使用してクラスタをプロビジョニングできます。
Vertex AI
Vertex AI は、ML モデルと AI アプリケーションのトレーニングとデプロイに使用できるフルマネージド型の機械学習(ML)プラットフォームです。Vertex AI アプリケーションでは、GPU アクセラレーション VM を使用して、次の方法でパフォーマンスを向上させることができます。
Cluster Director
Cluster Director(旧称 Hypercompute Cluster)は、単一の同種ユニットとして機能するアクセラレータとネットワーキング リソースを最大で数万までデプロイして管理できるように設計された一連の機能とサービスです。このオプションは、Google Kubernetes Engine(GKE)スケジューラや Slurm スケジューラの統合を含む、パフォーマンスが最適化された密な割り当てのインフラストラクチャを作成する場合に最適です。Cluster Director は、AI、ML、HPC のワークロードの実行用に特別に設計されたインフラストラクチャの構築に役立ちます。詳細については、Cluster Director をご覧ください。
Cluster Director の使用を開始するには、デプロイ戦略を選択するをご覧ください。
Compute Engine
Compute Engine で、GPU が接続された個々の VM または小規模な VM クラスタを作成して管理することもできます。この方法は、グラフィックを多用するワークロード、シミュレーション ワークロード、小規模な ML モデルのトレーニングの実行に主に使用されます。
次の表に、GPU がアタッチされた VM の作成に使用できる方法を示します。
Cloud Run
Cloud Run インスタンスに GPU を構成できます。GPU は、Cloud Run で大規模言語モデルを使用して AI 推論ワークロードを実行する場合に最適です。
Cloud Run を使用して GPU 上で AI ワークロードを実行する方法については、次のリソースをご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-08-18 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-08-18 UTC。"],[[["\u003cp\u003eGoogle Cloud provides robust GPU infrastructure to support demanding AI, machine learning, scientific, and enterprise workloads, with optimized software and networking options.\u003c/p\u003e\n"],["\u003cp\u003eUsers can leverage GPU-accelerated virtual machines (VMs) via accelerator-optimized machine families like A3, A2, and G2, designed for maximum performance.\u003c/p\u003e\n"],["\u003cp\u003eVertex AI offers various ways to utilize GPU-enabled VMs to improve model training, deployment, and prediction latency, along with supporting open-source large language models.\u003c/p\u003e\n"],["\u003cp\u003eHypercompute Cluster enables the creation of clusters of GPU-accelerated VMs, managed as a single unit, suited for AI, ML, and high-performance computing (HPC) workloads.\u003c/p\u003e\n"],["\u003cp\u003eCompute Engine provides options to create individual VMs or small clusters with attached GPUs for graphics-intensive tasks and small-scale model training, while Cloud Run supports GPU configuration for AI inference workloads.\u003c/p\u003e\n"]]],[],null,["# About GPUs on Google Cloud\n\n*** ** * ** ***\n\nGoogle Cloud is focused on delivering world-class artificial intelligence (AI)\ninfrastructure to power your most demanding GPU-accelerated workloads across a\nwide range of segments. You can use GPUs on Google Cloud to run AI, machine\nlearning (ML), scientific, analytics, engineering, consumer, and enterprise\napplications.\n\nThrough our partnership with NVIDIA, Google Cloud delivers the latest GPUs while\noptimizing the software stack with a wide array of storage and networking\noptions. For a full list of GPUs available, see [GPU platforms](/compute/docs/gpus).\n\nThe following sections outline the benefits of GPUs on Google Cloud.\n\nGPU-accelerated VMs\n-------------------\n\nOn Google Cloud, you can access and provision GPUs in the way that best suits\nyour needs. A specialized [accelerator-optimized machine family](/compute/docs/accelerator-optimized-machines) is\navailable, with pre-attached GPUs and networking capabilities that are ideal for\nmaximizing performance. These are available in the A4X, A4, A3, A2, and G2\nmachine series.\n\nMultiple provisioning options\n-----------------------------\n\nYou can provision clusters by using the accelerator-optimized machine family\nwith any of the following open-source or Google Cloud products.\n\n### Vertex AI\n\nVertex AI is a fully-managed machine learning (ML) platform that you\ncan use to train and deploy ML models and AI applications. In Vertex AI\napplications, you can use GPU-accelerated VMs to improve performance in the\nfollowing ways:\n\n- [Use GPU-enabled VMs](/vertex-ai/docs/training/configure-compute) in custom training GKE worker pools.\n- Use [open source LLM models from the Vertex AI Model Garden](/vertex-ai/generative-ai/docs/open-models/use-open-models).\n- Reduce [prediction](/vertex-ai/docs/predictions/configure-compute#gpus) latency.\n- Improve performance of [Vertex AI Workbench](/vertex-ai/docs/workbench/instances/change-machine-type) notebook code.\n- Improve performance of a [Colab Enterprise runtime](/colab/docs/create-runtime-template).\n\n### Cluster Director\n\nCluster Director (formerly known as *Hypercompute Cluster* ) is a set of\nfeatures and services that are designed to let you deploy and manage large\nnumbers, up to tens of thousands, of accelerator and networking resources that\nfunction as a single homogeneous unit. This option is ideal for creating a\ndensely allocated, performance-optimized infrastructure that has integrations\nfor Google Kubernetes Engine (GKE) and Slurm schedulers. Cluster Director helps\nyou to build an infrastructure that is specifically designed for running AI, ML,\nand HPC workloads. For more information, see [Cluster Director](/ai-hypercomputer/docs/hypercompute-cluster).\n\nTo get started with Cluster Director, see [Choose a deployment strategy](/ai-hypercomputer/docs/choose-strategy).\n\n### Compute Engine\n\nYou can also create and manage individual VMs or small clusters of VMs with\nattached GPUs on Compute Engine. This method is mostly used for running\ngraphics-intensive workloads, simulation workloads, or small-scale ML model\ntraining.\n\nThe following table shows the methods that you can use to create VMs that have\nGPUs attached:\n\n### Cloud Run\n\nYou can configure GPUs for your Cloud Run instances. GPUs are ideal for\nrunning AI inference workloads using large language models on Cloud Run.\n\nOn Cloud Run, consult these resources for running AI workloads on GPUs:\n\n- [Configure GPUs for a Cloud Run service](/run/docs/configuring/services/gpu)\n- [Load large ML models on Cloud Run with GPUs](/run/docs/configuring/services/gpu-best-practices#model-loading-recommendations)\n- [Tutorial: Run LLM inference on Cloud Run GPUs with Ollama](/run/docs/tutorials/gpu-gemma2-with-ollama)"]]