Il est possible qu'une partie ou l'ensemble des informations de cette page ne s'appliquent pas au Cloud de confiance S3NS.
À propos des GPU sur Trusted Cloud by S3NS
Trusted Cloud by S3NS se concentre sur la fourniture d'une infrastructure d'intelligence artificielle (IA) de premier ordre pour alimenter vos charges de travail accélérées par GPU les plus exigeantes dans un large éventail de segments. Vous pouvez utiliser des GPU sur Trusted Cloud by S3NS pour exécuter des applications d'IA, de machine learning, scientifiques, d'analyse, d'ingénierie, grand public et d'entreprise.
Grâce à notre partenariat avec NVIDIA, Trusted Cloud by S3NS propose les GPU les plus récents tout en optimisant la pile logicielle avec un large éventail d'options de stockage et de mise en réseau. Pour obtenir la liste complète des GPU disponibles, consultez la section Plates-formes GPU.
Les sections suivantes décrivent les avantages des GPU sur Trusted Cloud by S3NS.
VM accélérées par GPU
Sur Trusted Cloud by S3NS, vous pouvez accéder aux GPU et les provisionner de la façon la plus adaptée à vos besoins. Une famille de machines spécialisées optimisées pour les accélérateurs est disponible, avec des GPU préinstallés et des capacités de mise en réseau idéales pour maximiser les performances. Ces machines sont disponibles dans les séries de machines A4X, A4, A3, A2 et G2.
Options de provisionnement multiples
Vous pouvez provisionner des clusters en utilisant la famille de machines optimisées pour les accélérateurs avec l'un des produits Open Source ou Trusted Cloud by S3NS suivants.
Vertex AI
Vertex AI est une plateforme de machine learning (ML) entièrement gérée que vous pouvez utiliser pour entraîner et déployer des modèles de ML et des applications d'IA. Dans les applications Vertex AI, vous pouvez utiliser des VM accélérées par GPU pour améliorer les performances de plusieurs façons :
Cluster Director
Cluster Director (anciennement appelé Hypercompute Cluster) est un ensemble de fonctionnalités et de services conçus pour vous permettre de déployer et de gérer un grand nombre (jusqu'à des dizaines de milliers) de ressources d'accélération et de mise en réseau qui fonctionnent comme une seule unité homogène. Cette option est idéale pour créer une infrastructure densément allouée et optimisée pour les performances, qui intègre les planificateurs Google Kubernetes Engine (GKE) et Slurm. Cluster Director vous aide à créer une infrastructure spécialement conçue pour exécuter des charges de travail d'IA, de ML et de HPC. Pour en savoir plus, consultez Cluster Director.
Pour commencer à utiliser Cluster Director, consultez Choisir une stratégie de déploiement.
Compute Engine
Vous pouvez également créer et gérer des VM individuelles ou de petits clusters de VM avec des GPU associés sur Compute Engine. Cette méthode est principalement utilisée pour exécuter des charges de travail graphiques intensives, des charges de travail de simulation ou une formation de modèle de ML à petite échelle.
Le tableau suivant présente les méthodes que vous pouvez utiliser pour créer des VM associées à des GPU:
Cloud Run
Vous pouvez configurer des GPU pour vos instances Cloud Run. Les GPU sont idéaux pour exécuter des charges de travail d'inférence d'IA à l'aide de grands modèles de langage sur Cloud Run.
Sur Cloud Run, consultez ces ressources pour exécuter des charges de travail d'IA sur des GPU :
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/08/18 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/08/18 (UTC)."],[[["\u003cp\u003eGoogle Cloud provides robust GPU infrastructure to support demanding AI, machine learning, scientific, and enterprise workloads, with optimized software and networking options.\u003c/p\u003e\n"],["\u003cp\u003eUsers can leverage GPU-accelerated virtual machines (VMs) via accelerator-optimized machine families like A3, A2, and G2, designed for maximum performance.\u003c/p\u003e\n"],["\u003cp\u003eVertex AI offers various ways to utilize GPU-enabled VMs to improve model training, deployment, and prediction latency, along with supporting open-source large language models.\u003c/p\u003e\n"],["\u003cp\u003eHypercompute Cluster enables the creation of clusters of GPU-accelerated VMs, managed as a single unit, suited for AI, ML, and high-performance computing (HPC) workloads.\u003c/p\u003e\n"],["\u003cp\u003eCompute Engine provides options to create individual VMs or small clusters with attached GPUs for graphics-intensive tasks and small-scale model training, while Cloud Run supports GPU configuration for AI inference workloads.\u003c/p\u003e\n"]]],[],null,["# About GPUs on Google Cloud\n\n*** ** * ** ***\n\nGoogle Cloud is focused on delivering world-class artificial intelligence (AI)\ninfrastructure to power your most demanding GPU-accelerated workloads across a\nwide range of segments. You can use GPUs on Google Cloud to run AI, machine\nlearning (ML), scientific, analytics, engineering, consumer, and enterprise\napplications.\n\nThrough our partnership with NVIDIA, Google Cloud delivers the latest GPUs while\noptimizing the software stack with a wide array of storage and networking\noptions. For a full list of GPUs available, see [GPU platforms](/compute/docs/gpus).\n\nThe following sections outline the benefits of GPUs on Google Cloud.\n\nGPU-accelerated VMs\n-------------------\n\nOn Google Cloud, you can access and provision GPUs in the way that best suits\nyour needs. A specialized [accelerator-optimized machine family](/compute/docs/accelerator-optimized-machines) is\navailable, with pre-attached GPUs and networking capabilities that are ideal for\nmaximizing performance. These are available in the A4X, A4, A3, A2, and G2\nmachine series.\n\nMultiple provisioning options\n-----------------------------\n\nYou can provision clusters by using the accelerator-optimized machine family\nwith any of the following open-source or Google Cloud products.\n\n### Vertex AI\n\nVertex AI is a fully-managed machine learning (ML) platform that you\ncan use to train and deploy ML models and AI applications. In Vertex AI\napplications, you can use GPU-accelerated VMs to improve performance in the\nfollowing ways:\n\n- [Use GPU-enabled VMs](/vertex-ai/docs/training/configure-compute) in custom training GKE worker pools.\n- Use [open source LLM models from the Vertex AI Model Garden](/vertex-ai/generative-ai/docs/open-models/use-open-models).\n- Reduce [prediction](/vertex-ai/docs/predictions/configure-compute#gpus) latency.\n- Improve performance of [Vertex AI Workbench](/vertex-ai/docs/workbench/instances/change-machine-type) notebook code.\n- Improve performance of a [Colab Enterprise runtime](/colab/docs/create-runtime-template).\n\n### Cluster Director\n\nCluster Director (formerly known as *Hypercompute Cluster* ) is a set of\nfeatures and services that are designed to let you deploy and manage large\nnumbers, up to tens of thousands, of accelerator and networking resources that\nfunction as a single homogeneous unit. This option is ideal for creating a\ndensely allocated, performance-optimized infrastructure that has integrations\nfor Google Kubernetes Engine (GKE) and Slurm schedulers. Cluster Director helps\nyou to build an infrastructure that is specifically designed for running AI, ML,\nand HPC workloads. For more information, see [Cluster Director](/ai-hypercomputer/docs/hypercompute-cluster).\n\nTo get started with Cluster Director, see [Choose a deployment strategy](/ai-hypercomputer/docs/choose-strategy).\n\n### Compute Engine\n\nYou can also create and manage individual VMs or small clusters of VMs with\nattached GPUs on Compute Engine. This method is mostly used for running\ngraphics-intensive workloads, simulation workloads, or small-scale ML model\ntraining.\n\nThe following table shows the methods that you can use to create VMs that have\nGPUs attached:\n\n### Cloud Run\n\nYou can configure GPUs for your Cloud Run instances. GPUs are ideal for\nrunning AI inference workloads using large language models on Cloud Run.\n\nOn Cloud Run, consult these resources for running AI workloads on GPUs:\n\n- [Configure GPUs for a Cloud Run service](/run/docs/configuring/services/gpu)\n- [Load large ML models on Cloud Run with GPUs](/run/docs/configuring/services/gpu-best-practices#model-loading-recommendations)\n- [Tutorial: Run LLM inference on Cloud Run GPUs with Ollama](/run/docs/tutorials/gpu-gemma2-with-ollama)"]]