À propos des GPU sur Trusted Cloud by S3NS

Trusted Cloud by S3NS se concentre sur la fourniture d'une infrastructure d'intelligence artificielle (IA) de premier ordre pour alimenter vos charges de travail accélérées par GPU les plus exigeantes dans un large éventail de segments. Vous pouvez utiliser des GPU sur Trusted Cloud by S3NS pour exécuter des applications d'IA, de machine learning, scientifiques, d'analyse, d'ingénierie, grand public et d'entreprise.

Grâce à notre partenariat avec NVIDIA, Trusted Cloud by S3NS propose les GPU les plus récents tout en optimisant la pile logicielle avec un large éventail d'options de stockage et de mise en réseau. Pour obtenir la liste complète des GPU disponibles, consultez la section Plates-formes GPU.

Les sections suivantes décrivent les avantages des GPU sur Trusted Cloud by S3NS.

VM accélérées par GPU

Sur Trusted Cloud by S3NS, vous pouvez accéder aux GPU et les provisionner de la façon la plus adaptée à vos besoins. Une famille de machines spécialisées optimisées pour les accélérateurs est disponible, avec des GPU préinstallés et des capacités de mise en réseau idéales pour maximiser les performances. Ces machines sont disponibles dans les séries de machines A4X, A4, A3, A2 et G2.

Options de provisionnement multiples

Vous pouvez provisionner des clusters en utilisant la famille de machines optimisées pour les accélérateurs avec l'un des produits Open Source ou Trusted Cloud by S3NS suivants.

Vertex AI

Vertex AI est une plateforme de machine learning (ML) entièrement gérée que vous pouvez utiliser pour entraîner et déployer des modèles de ML et des applications d'IA. Dans les applications Vertex AI, vous pouvez utiliser des VM accélérées par GPU pour améliorer les performances de plusieurs façons :

Cluster Director

Cluster Director (anciennement appelé Hypercompute Cluster) est un ensemble de fonctionnalités et de services conçus pour vous permettre de déployer et de gérer un grand nombre (jusqu'à des dizaines de milliers) de ressources d'accélération et de mise en réseau qui fonctionnent comme une seule unité homogène. Cette option est idéale pour créer une infrastructure densément allouée et optimisée pour les performances, qui intègre les planificateurs Google Kubernetes Engine (GKE) et Slurm. Cluster Director vous aide à créer une infrastructure spécialement conçue pour exécuter des charges de travail d'IA, de ML et de HPC. Pour en savoir plus, consultez Cluster Director.

Pour commencer à utiliser Cluster Director, consultez Choisir une stratégie de déploiement.

Compute Engine

Vous pouvez également créer et gérer des VM individuelles ou de petits clusters de VM avec des GPU associés sur Compute Engine. Cette méthode est principalement utilisée pour exécuter des charges de travail graphiques intensives, des charges de travail de simulation ou une formation de modèle de ML à petite échelle.

Le tableau suivant présente les méthodes que vous pouvez utiliser pour créer des VM associées à des GPU:

Options de déploiement

Guides de déploiement

Créer une VM pour le traitement et les charges de travail à nœud unique

Créer une VM A3 Edge ou A3 High

Créer des groupes d'instances gérés (MIG)

Cette option utilise le planificateur de charge de travail dynamique (DWS).

Créer un MIG comprenant des VM avec GPU

Créer des VM de manière groupée

Créer un groupe de VM avec GPU de manière groupée

Créer une VM unique

Créer une VM avec GPU unique

Créer des stations de travail virtuelles

Créer une station de travail virtuelle accélérée par GPU

Cloud Run

Vous pouvez configurer des GPU pour vos instances Cloud Run. Les GPU sont idéaux pour exécuter des charges de travail d'inférence d'IA à l'aide de grands modèles de langage sur Cloud Run.

Sur Cloud Run, consultez ces ressources pour exécuter des charges de travail d'IA sur des GPU :