Acerca de las GPUs en Trusted Cloud by S3NS

Trusted Cloud by S3NS se enfoca en ofrecer una infraestructura de inteligencia artificial (IA) de primer nivel para potenciar tus cargas de trabajo más exigentes aceleradas por GPU en una amplia variedad de segmentos. Puedes usar GPUs en Trusted Cloud by S3NS para ejecutar aplicaciones de IA, aprendizaje automático (AA), científicas, de análisis, de ingeniería, para consumidores y empresariales.

A través de nuestra asociación con NVIDIA, Trusted Cloud by S3NS ofrece las GPUs más recientes y, al mismo tiempo, optimiza la pila de software con una amplia variedad de opciones de almacenamiento y redes. Para obtener una lista completa de las GPUs disponibles, consulta Plataformas de GPU.

En las siguientes secciones, se describen los beneficios de las GPUs en Trusted Cloud by S3NS.

VMs con aceleración de GPU

En Trusted Cloud by S3NS, puedes acceder a las GPUs y aprovisionarlas de la manera que mejor se adapte a tus necesidades. Hay disponible una familia de máquinas optimizadas para aceleradores especializada, con GPUs preconectadas y capacidades de red ideales para maximizar el rendimiento. Están disponibles en las series de máquinas A4X, A4, A3, A2 y G2.

Varias opciones de aprovisionamiento

Puedes aprovisionar clústeres con la familia de máquinas optimizadas para aceleradores con cualquiera de los siguientes productos Trusted Cloud by S3NS o de código abierto.

Vertex AI

Vertex AI es una plataforma de aprendizaje automático (AA) completamente administrada que puedes usar para entrenar e implementar modelos de AA y aplicaciones de IA. En las aplicaciones de Vertex AI, puedes usar VMs aceleradas por GPU para mejorar el rendimiento de las siguientes maneras:

Cluster Director

Cluster Director (antes conocido como Hypercompute Cluster) es un conjunto de funciones y servicios diseñados para permitirte implementar y administrar grandes cantidades, hasta decenas de miles, de recursos de aceleradores y redes que funcionan como una sola unidad homogénea. Esta opción es ideal para crear una infraestructura con una asignación densa y optimizada para el rendimiento que tenga integraciones para Google Kubernetes Engine (GKE) y programadores de Slurm. Cluster Director te ayuda a compilar una infraestructura diseñada específicamente para ejecutar cargas de trabajo de IA, AA y HPC. Para obtener más información, consulta Director de clústeres.

Para comenzar a usar Cluster Director, consulta Elige una estrategia de implementación.

Compute Engine

También puedes crear y administrar VMs individuales o pequeños clústeres de VMs con GPUs adjuntas en Compute Engine. Este método se usa principalmente para ejecutar cargas de trabajo intensivas en gráficos, cargas de trabajo de simulación o el entrenamiento de modelos de AA a pequeña escala.

En la siguiente tabla, se muestran los métodos que puedes usar para crear VMs que tengan GPUs conectadas:

Opción de implementación

Guías de implementación

Crea una VM para cargas de trabajo de entrega y de nodo único

Crea una VM A3 Edge o A3 High

Crear grupos de instancias administrados (MIG)

Esta opción usa el programador dinámico de cargas de trabajo (DWS).

Crea un MIG con VMs de GPU

Crea VMs de forma masiva

Cómo crear un grupo de VMs de GPU de forma masiva

Crea una sola VM

Cómo crear una sola VM de GPU

Crea estaciones de trabajo virtuales

Crea una estación de trabajo virtual acelerada con GPU

Cloud Run

Puedes configurar GPUs para tus instancias de Cloud Run. Las GPUs son ideales para ejecutar cargas de trabajo de inferencia de IA con modelos de lenguaje grandes en Cloud Run.

En Cloud Run, consulta estos recursos para ejecutar cargas de trabajo de IA en GPUs: