이 페이지의 일부 또는 모든 정보는 Trusted Cloud by S3NS에 적용되지 않을 수 있습니다. 자세한 내용은
Google Cloud와의 차이점을 참조하세요.
Trusted Cloud by S3NS의 GPU 정보
Trusted Cloud by S3NS 는 다양한 세그먼트에서 가장 까다로운 GPU 가속 워크로드를 처리할 수 있는 세계적 수준의 인공지능(AI) 인프라를 제공하는 데 집중하고 있습니다. Trusted Cloud by S3NS 에서 GPU를 사용하여 AI, 머신러닝(ML), 과학, 분석, 엔지니어링, 소비자, 엔터프라이즈 애플리케이션을 실행할 수 있습니다.
Trusted Cloud by S3NS 는 NVIDIA와의 파트너십을 통해 최신 GPU를 제공하는 동시에 다양한 스토리지 및 네트워킹 옵션을 사용하여 소프트웨어 스택을 최적화합니다. 사용 가능한 GPU의 전체 목록은 GPU 플랫폼을 참조하세요.
다음 섹션에서는 Trusted Cloud by S3NS에서 GPU를 사용할 경우의 이점을 간략하게 설명합니다.
GPU 가속 VM
Trusted Cloud by S3NS에서는 니즈에 가장 적합한 방식으로 GPU에 액세스하고 프로비저닝할 수 있습니다. 성능을 극대화하는 데 이상적인 GPU와 네트워킹 기능이 사전 연결된 특수 가속기 최적화 머신 계열을 사용할 수 있습니다. A4X, A4, A3, A2, G2 머신 시리즈에서 사용할 수 있습니다.
여러 프로비저닝 옵션
다음 오픈소스 또는 Trusted Cloud by S3NS 제품과 함께 가속기 최적화 머신 계열을 사용하여 클러스터를 프로비저닝할 수 있습니다.
Vertex AI
Vertex AI는 ML 모델 및 AI 애플리케이션을 학습 및 배포하는 데 사용할 수 있는 완전 관리형 머신 러닝(ML) 플랫폼입니다. Vertex AI 애플리케이션에서 GPU 가속 VM을 사용하여 애플리케이션의 성능을 향상할 수 있는 방법은 다음과 같습니다.
Cluster Director
Cluster Director(이전 명칭: Hypercompute Cluster)는 동질한 단일 단위로 작동하는 대규모 가속기 및 네트워킹 리소스(최대 수만 개)를 배포하고 관리할 수 있도록 설계된 기능 및 서비스 집합입니다. 이 옵션은 Google Kubernetes Engine(GKE) 및 Slurm 스케줄러와 통합된 밀집적으로 할당된 성능 최적화 인프라를 생성하는 데 적합합니다. 클러스터 디렉터는 AI, ML, HPC 워크로드를 실행하도록 특별히 설계된 인프라를 구축하는 데 도움이 됩니다. 자세한 내용은 Cluster Director를 참조하세요.
Cluster Director를 시작하려면 배포 전략 선택을 참조하세요.
Compute Engine
Compute Engine에서 GPU가 연결된 개별 VM이나 소규모 VM 클러스터를 만들고 관리할 수도 있습니다. 이 방법은 주로 그래픽 집약적인 워크로드, 시뮬레이션 워크로드 또는 소규모 ML 모델 학습 실행에 사용됩니다.
다음 표에는 GPU가 연결된 VM을 만드는 데 사용할 수 있는 메서드가 나와 있습니다.
Cloud Run
Cloud Run 인스턴스에 GPU를 구성할 수 있습니다. GPU는 Cloud Run에서 대규모 언어 모델을 사용하여 AI 추론 워크로드를 실행하는 데 이상적입니다.
Cloud Run의 GPU에서 AI 워크로드를 실행하려면 다음 리소스를 참조하세요.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-08-30(UTC)
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-08-30(UTC)"],[[["\u003cp\u003eGoogle Cloud provides robust GPU infrastructure to support demanding AI, machine learning, scientific, and enterprise workloads, with optimized software and networking options.\u003c/p\u003e\n"],["\u003cp\u003eUsers can leverage GPU-accelerated virtual machines (VMs) via accelerator-optimized machine families like A3, A2, and G2, designed for maximum performance.\u003c/p\u003e\n"],["\u003cp\u003eVertex AI offers various ways to utilize GPU-enabled VMs to improve model training, deployment, and prediction latency, along with supporting open-source large language models.\u003c/p\u003e\n"],["\u003cp\u003eHypercompute Cluster enables the creation of clusters of GPU-accelerated VMs, managed as a single unit, suited for AI, ML, and high-performance computing (HPC) workloads.\u003c/p\u003e\n"],["\u003cp\u003eCompute Engine provides options to create individual VMs or small clusters with attached GPUs for graphics-intensive tasks and small-scale model training, while Cloud Run supports GPU configuration for AI inference workloads.\u003c/p\u003e\n"]]],[],null,["# About GPUs on Google Cloud\n\n*** ** * ** ***\n\nGoogle Cloud is focused on delivering world-class artificial intelligence (AI)\ninfrastructure to power your most demanding GPU-accelerated workloads across a\nwide range of segments. You can use GPUs on Google Cloud to run AI, machine\nlearning (ML), scientific, analytics, engineering, consumer, and enterprise\napplications.\n\nThrough our partnership with NVIDIA, Google Cloud delivers the latest GPUs while\noptimizing the software stack with a wide array of storage and networking\noptions. For a full list of GPUs available, see [GPU platforms](/compute/docs/gpus).\n\nThe following sections outline the benefits of GPUs on Google Cloud.\n\nGPU-accelerated VMs\n-------------------\n\nOn Google Cloud, you can access and provision GPUs in the way that best suits\nyour needs. A specialized [accelerator-optimized machine family](/compute/docs/accelerator-optimized-machines) is\navailable, with pre-attached GPUs and networking capabilities that are ideal for\nmaximizing performance. These are available in the A4X, A4, A3, A2, and G2\nmachine series.\n\nMultiple provisioning options\n-----------------------------\n\nYou can provision clusters by using the accelerator-optimized machine family\nwith any of the following open-source or Google Cloud products.\n\n### Vertex AI\n\nVertex AI is a fully-managed machine learning (ML) platform that you\ncan use to train and deploy ML models and AI applications. In Vertex AI\napplications, you can use GPU-accelerated VMs to improve performance in the\nfollowing ways:\n\n- [Use GPU-enabled VMs](/vertex-ai/docs/training/configure-compute) in custom training GKE worker pools.\n- Use [open source LLM models from the Vertex AI Model Garden](/vertex-ai/generative-ai/docs/open-models/use-open-models).\n- Reduce [prediction](/vertex-ai/docs/predictions/configure-compute#gpus) latency.\n- Improve performance of [Vertex AI Workbench](/vertex-ai/docs/workbench/instances/change-machine-type) notebook code.\n- Improve performance of a [Colab Enterprise runtime](/colab/docs/create-runtime-template).\n\n### Cluster Director\n\nCluster Director (formerly known as *Hypercompute Cluster* ) is a set of\nfeatures and services that are designed to let you deploy and manage large\nnumbers, up to tens of thousands, of accelerator and networking resources that\nfunction as a single homogeneous unit. This option is ideal for creating a\ndensely allocated, performance-optimized infrastructure that has integrations\nfor Google Kubernetes Engine (GKE) and Slurm schedulers. Cluster Director helps\nyou to build an infrastructure that is specifically designed for running AI, ML,\nand HPC workloads. For more information, see [Cluster Director](/ai-hypercomputer/docs/hypercompute-cluster).\n\nTo get started with Cluster Director, see [Choose a deployment strategy](/ai-hypercomputer/docs/choose-strategy).\n\n### Compute Engine\n\nYou can also create and manage individual VMs or small clusters of VMs with\nattached GPUs on Compute Engine. This method is mostly used for running\ngraphics-intensive workloads, simulation workloads, or small-scale ML model\ntraining.\n\nThe following table shows the methods that you can use to create VMs that have\nGPUs attached:\n\n### Cloud Run\n\nYou can configure GPUs for your Cloud Run instances. GPUs are ideal for\nrunning AI inference workloads using large language models on Cloud Run.\n\nOn Cloud Run, consult these resources for running AI workloads on GPUs:\n\n- [Configure GPUs for a Cloud Run service](/run/docs/configuring/services/gpu)\n- [Load large ML models on Cloud Run with GPUs](/run/docs/configuring/services/gpu-best-practices#model-loading-recommendations)\n- [Tutorial: Run LLM inference on Cloud Run GPUs with Ollama](/run/docs/tutorials/gpu-gemma2-with-ollama)"]]