Jaringan dan mesin GPU

Bandwidth jaringan yang lebih tinggi dapat meningkatkan performa instance GPU Anda untuk mendukung workload terdistribusi yang berjalan di Compute Engine.

Bandwidth jaringan maksimum yang tersedia untuk instance dengan GPU terpasang di Compute Engine adalah sebagai berikut:

  • Untuk instance yang dioptimalkan untuk akselerator A4X, Anda bisa mendapatkan bandwidth jaringan maksimum hingga 2.000 Gbps, berdasarkan jenis mesin.
  • Untuk instance yang dioptimalkan akselerator A4 dan A3, Anda bisa mendapatkan bandwidth jaringan maksimum hingga 3.600 Gbps, berdasarkan jenis mesin.
  • Untuk instance yang dioptimalkan akselerator G4, Anda bisa mendapatkan bandwidth jaringan maksimum hingga 400 Gbps, berdasarkan jenis mesin.
  • Untuk instance yang dioptimalkan akselerator A2 dan G2, Anda bisa mendapatkan bandwidth jaringan maksimum hingga 100 Gbps, berdasarkan jenis mesin.
  • Untuk instance tujuan umum N1 yang memiliki GPU P100 dan P4 yang terpasang, tersedia bandwidth jaringan maksimum sebesar 32 Gbps. Tarif ini serupa dengan tarif maksimum yang tersedia untuk instance N1 yang tidak memasang GPU. Untuk mengetahui informasi selengkapnya tentang bandwidth jaringan, lihat kecepatan data keluar maksimum.
  • Untuk instance tujuan umum N1 yang memasang GPU T4 dan V100, Anda bisa mendapatkan bandwidth jaringan maksimum hingga 100 Gbps, berdasarkan kombinasi jumlah GPU dan vCPU.

Meninjau bandwidth jaringan dan pengaturan NIC

Gunakan bagian berikut untuk meninjau pengaturan jaringan dan kecepatan bandwidth untuk setiap jenis mesin GPU.

Jenis mesin A4X

Jenis mesin A4X dilengkapi dengan Superchip NVIDIA GB200. Superchip ini memiliki GPU NVIDIA B200.

Jenis mesin ini memiliki empat kartu antarmuka jaringan (NIC) NVIDIA ConnectX-7 (CX-7) dan dua NIC Titanium. Empat NIC CX-7 memberikan total bandwidth jaringan sebesar 1.600 Gbps. NIC CX-7 ini dikhususkan hanya untuk komunikasi GPU ke GPU dengan bandwidth tinggi dan tidak dapat digunakan untuk kebutuhan jaringan lainnya seperti akses internet publik. Dua NIC Titanium adalah NIC pintar yang memberikan bandwidth jaringan tambahan sebesar 400 Gbps untuk persyaratan jaringan tujuan umum. Jika digabungkan, kartu antarmuka jaringan memberikan total bandwidth jaringan maksimum sebesar 2.000 Gbps untuk mesin ini.

A4X adalah platform eksaskala berdasarkan arsitektur skala rak NVIDIA GB200 NVL72 dan memperkenalkan arsitektur Superchip NVIDIA Grace Hopper yang menghadirkan GPU NVIDIA Hopper dan CPU NVIDIA Grace yang terhubung dengan interkoneksi NVIDIA NVLink Chip-to-Chip (C2C) berbandwidth tinggi.

Arsitektur jaringan A4X menggunakan desain yang selaras dengan rel, yaitu topologi tempat kartu jaringan yang sesuai dari satu instance Compute Engine terhubung ke kartu jaringan instance lainnya. Empat NIC CX-7 di setiap instance terisolasi secara fisik pada topologi jaringan yang selaras dengan rel 4 arah, yang memungkinkan A4X melakukan penskalaan horizontal dalam grup 72 GPU hingga ribuan GPU dalam satu cluster non-blocking. Pendekatan terintegrasi hardware ini memberikan performa yang dapat diprediksi dan berlatensi rendah yang penting untuk workload terdistribusi berskala besar.

Arsitektur jaringan untuk A4X yang menampilkan empat NIC CX-7 untuk komunikasi GPU dan dua NIC Titanium untuk jaringan umum.
Gambar 1. Arsitektur jaringan untuk A4X

Untuk menggunakan beberapa NIC ini, Anda perlu membuat 3 jaringan Virtual Private Cloud sebagai berikut:

  • 2 jaringan VPC: setiap gVNIC harus terhubung ke jaringan VPC yang berbeda
  • 1 jaringan VPC dengan profil jaringan RDMA: keempat NIC CX-7 berbagi jaringan VPC yang sama

Untuk menyiapkan jaringan ini, lihat Membuat jaringan VPC di dokumentasi AI Hypercomputer.

Chip Super NVIDIA GB200 Grace Blackwell terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD Lokal yang Terpasang (GiB) Jumlah NIC fisik Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3
(GB HBM3e)
a4x-highgpu-4g 140 884 12.000 6 2.000 4 720

1vCPU diimplementasikan sebagai hardware hyper-thread tunggal di salah satu platform CPU yang tersedia.
2Bandwidth traffic keluar maksimum tidak boleh melebihi jumlah yang diberikan. Bandwidth traffic keluar yang sebenarnya bergantung pada alamat IP tujuan dan faktor lainnya. Untuk mengetahui informasi selengkapnya tentang bandwidth jaringan, lihat Bandwidth jaringan.
3Memori GPU adalah memori pada perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori instance dan dirancang khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload intensif grafis Anda.

Jenis mesin A4 dan A3 Ultra

Jenis mesin A4 memiliki GPU NVIDIA B200 yang terpasang dan jenis mesin A3 Ultra memiliki GPU NVIDIA H200 yang terpasang.

Jenis mesin ini menyediakan delapan kartu antarmuka jaringan (NIC) NVIDIA ConnectX-7 (CX-7) dan dua NIC virtual Google (gVNIC). Delapan NIC CX-7 memberikan total bandwidth jaringan sebesar 3.200 Gbps. NIC ini dikhususkan untuk komunikasi GPU ke GPU bandwidth tinggi saja dan tidak dapat digunakan untuk kebutuhan jaringan lainnya seperti akses internet publik. Seperti yang diuraikan dalam diagram berikut, setiap NIC CX-7 diselaraskan dengan satu GPU untuk mengoptimalkan akses memori non-uniform (NUMA). Kedelapan GPU dapat berkomunikasi satu sama lain dengan cepat menggunakan jembatan NVLink all-to-all yang menghubungkannya. Dua kartu antarmuka jaringan gVNIC lainnya adalah NIC pintar yang menyediakan bandwidth jaringan tambahan sebesar 400 Gbps untuk persyaratan jaringan tujuan umum. Jika digabungkan, kartu antarmuka jaringan ini memberikan total bandwidth jaringan maksimum sebesar 3.600 Gbps untuk mesin ini.

Arsitektur jaringan untuk A4 dan A3 Ultra yang menampilkan delapan NIC CX-7 untuk komunikasi GPU dan dua gNIC untuk jaringan umum.
Gambar 2. Arsitektur jaringan untuk A4 dan A3 Ultra

Untuk menggunakan beberapa NIC ini, Anda perlu membuat 3 jaringan Virtual Private Cloud sebagai berikut:

  • 2 jaringan VPC reguler: setiap gVNIC harus terhubung ke jaringan VPC yang berbeda
  • 1 jaringan VPC RoCE: semua delapan NIC CX-7 berbagi jaringan VPC RoCE yang sama

Untuk menyiapkan jaringan ini, lihat Membuat jaringan VPC di dokumentasi AI Hypercomputer.

VM A4

GPU NVIDIA B200 Blackwell terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD Lokal yang Terpasang (GiB) Jumlah NIC fisik Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3
(GB HBM3e)
a4-highgpu-8g 224 3.968 12.000 10 3.600 8 1.440

1vCPU diimplementasikan sebagai hardware hyper-thread tunggal di salah satu platform CPU yang tersedia.
2Bandwidth traffic keluar maksimum tidak boleh melebihi jumlah yang diberikan. Bandwidth traffic keluar yang sebenarnya bergantung pada alamat IP tujuan dan faktor lainnya. Untuk mengetahui informasi selengkapnya tentang bandwidth jaringan, lihat Bandwidth jaringan.
3Memori GPU adalah memori pada perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori instance dan dirancang khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload intensif grafis Anda.

VM A3 Ultra

GPU NVIDIA H200 terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD Lokal yang Terpasang (GiB) Jumlah NIC fisik Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3
(GB HBM3e)
a3-ultragpu-8g 224 2.952 12.000 10 3.600 8 1128

1vCPU diimplementasikan sebagai hardware hyper-thread tunggal di salah satu platform CPU yang tersedia.
2Bandwidth traffic keluar maksimum tidak boleh melebihi jumlah yang diberikan. Bandwidth traffic keluar yang sebenarnya bergantung pada alamat IP tujuan dan faktor lainnya. Untuk mengetahui informasi selengkapnya tentang bandwidth jaringan, lihat Bandwidth jaringan.
3Memori GPU adalah memori pada perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori instance dan dirancang khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload intensif grafis Anda.

Jenis mesin A3 Mega, High, dan Edge

Jenis mesin ini memiliki GPU H100 yang terpasang. Setiap jenis mesin ini memiliki jumlah GPU tetap, jumlah vCPU, dan ukuran memori.

  • VM A3 NIC Tunggal: Untuk VM A3 dengan 1 hingga 4 GPU yang terpasang, hanya satu kartu antarmuka jaringan (NIC) fisik yang tersedia.
  • VM A3 Multi-NIC: Untuk VM A3 dengan 8 GPU yang terpasang, beberapa NIC fisik tersedia. Untuk jenis mesin A3 ini, NIC diatur sebagai berikut di bus Peripheral Component Interconnect Express (PCIe):
    • Untuk jenis mesin A3 Mega: tersedia pengaturan NIC 8+1. Dengan pengaturan ini, 8 NIC berbagi bus PCIe yang sama, dan 1 NIC berada di bus PCIe yang terpisah.
    • Untuk jenis mesin A3 High: tersedia pengaturan NIC 4+1. Dengan pengaturan ini, 4 NIC berbagi bus PCIe yang sama, dan 1 NIC berada di bus PCIe terpisah.
    • Untuk jenis mesin A3 Edge: tersedia pengaturan NIC 4+1. Dengan pengaturan ini, 4 NIC berbagi bus PCIe yang sama, dan 1 NIC berada di bus PCIe terpisah. 5 NIC ini menyediakan total bandwidth jaringan sebesar 400 Gbps untuk setiap VM.

    NIC yang berbagi bus PCIe yang sama, memiliki penyelarasan akses memori non-seragam (NUMA) satu NIC per dua GPU NVIDIA H100. NIC ini ideal untuk komunikasi GPU ke GPU dengan bandwidth tinggi khusus. NIC fisik yang berada di bus PCIe terpisah sangat ideal untuk kebutuhan jaringan lainnya. Untuk mengetahui petunjuk tentang cara menyiapkan jaringan untuk VM A3 High dan A3 Edge, lihat menyiapkan jaringan MTU frame jumbo.

A3 Mega

GPU NVIDIA H100 terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD Lokal yang Terpasang (GiB) Jumlah NIC fisik Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3
(GB HBM3)
a3-megagpu-8g 208 1.872 6.000 9 1.800 8 640

A3 Tinggi

GPU NVIDIA H100 terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD Lokal yang Terpasang (GiB) Jumlah NIC fisik Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1.500 1 50 2 160
a3-highgpu-4g 104 936 3.000 1 100 4 320
a3-highgpu-8g 208 1.872 6.000 5 1.000 8 640

A3 Edge

GPU NVIDIA H100 terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD Lokal yang Terpasang (GiB) Jumlah NIC fisik Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3
(GB HBM3)
a3-edgegpu-8g 208 1.872 6.000 5 8 640

1vCPU diimplementasikan sebagai hardware hyper-thread tunggal di salah satu platform CPU yang tersedia.
2Bandwidth traffic keluar maksimum tidak boleh melebihi jumlah yang diberikan. Bandwidth traffic keluar yang sebenarnya bergantung pada alamat IP tujuan dan faktor lainnya. Untuk mengetahui informasi selengkapnya tentang bandwidth jaringan, lihat Bandwidth jaringan.
3Memori GPU adalah memori pada perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori instance dan dirancang khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload intensif grafis Anda.

Jenis mesin A2

Setiap jenis mesin A2 memiliki jumlah tetap GPU NVIDIA A100 40 GB atau NVIDIA A100 80 GB yang terpasang. Setiap jenis mesin juga memiliki jumlah vCPU dan ukuran memori tetap.

Seri mesin A2 tersedia dalam dua jenis:

  • A2 Ultra: jenis mesin ini memiliki GPU A100 80 GB dan disk SSD Lokal yang terpasang.
  • A2 Standard: jenis mesin ini memiliki GPU A100 40 GB yang terpasang.

A2 Ultra

GPU NVIDIA A100 80 GB yang terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD Lokal yang Terpasang (GiB) Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3
(GB HBM2e)
a2-ultragpu-1g 12 170 375 24 1 80
a2-ultragpu-2g 24 340 750 32 2 160
a2-ultragpu-4g 48 680 1.500 50 4 320
a2-ultragpu-8g 96 1.360 3.000 100 8 640

A2 Standard

GPU NVIDIA A100 40 GB terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD lokal didukung Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3
(GB HBM2)
a2-highgpu-1g 12 85 Ya 24 1 40
a2-highgpu-2g 24 170 Ya 32 2 80
a2-highgpu-4g 48 340 Ya 50 4 160
a2-highgpu-8g 96 680 Ya 100 8 320
a2-megagpu-16g 96 1.360 Ya 100 16 640

1vCPU diimplementasikan sebagai hardware hyper-thread tunggal di salah satu platform CPU yang tersedia.
2Bandwidth traffic keluar maksimum tidak boleh melebihi jumlah yang diberikan. Bandwidth traffic keluar yang sebenarnya bergantung pada alamat IP tujuan dan faktor lainnya. Untuk mengetahui informasi selengkapnya tentang bandwidth jaringan, lihat Bandwidth jaringan.
3Memori GPU adalah memori pada perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori instance dan dirancang khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload intensif grafis Anda.

Jenis mesin G4

Jenis mesin yang dioptimalkan akselerator G4 menggunakan GPU NVIDIA RTX PRO 6000 Blackwell Server Edition (nvidia-rtx-pro-6000) dan cocok untuk workload simulasi NVIDIA Omniverse, aplikasi dengan grafik intensif, transkode video, dan desktop virtual. Jenis mesin G4 juga memberikan solusi berbiaya rendah untuk melakukan inferensi host tunggal dan penyesuaian model dibandingkan dengan jenis mesin seri A.

GPU NVIDIA RTX PRO 6000 terpasang
Jenis mesin Jumlah vCPU1 Memori instance (GB) SSD Titanium maksimum yang didukung (GiB)2 Jumlah NIC fisik Bandwidth jaringan maksimum (Gbps)3 Jumlah GPU Memori GPU4
(GB GDDR7)
g4-standard-48 48 180 1.500 1 50 1 96
g4-standard-96 96 360 3.000 1 100 2 192
g4-standard-192 192 720 6.000 1 200 4 384
g4-standard-384 384 1.440 12.000 2 400 8 768

1vCPU diimplementasikan sebagai hardware hyper-thread tunggal di salah satu platform CPU yang tersedia.
2Anda dapat menambahkan disk Titanium SSD saat membuat instance G4. Untuk mengetahui jumlah disk yang dapat Anda pasang, lihat Jenis mesin yang mengharuskan Anda memilih jumlah disk SSD Lokal.
3Bandwidth traffic keluar maksimum tidak boleh melebihi jumlah yang diberikan. Bandwidth traffic keluar yang sebenarnya bergantung pada alamat IP tujuan dan faktor lainnya. Lihat Bandwidth jaringan.Memori GPU
4adalah memori pada perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori instance dan dirancang khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload intensif grafis Anda.

Jenis mesin G2

Jenis mesin yang dioptimalkan akselerator G2 dilengkapi dengan GPU NVIDIA L4 dan ideal untuk inferensi yang dioptimalkan biaya, beban kerja komputasi berperforma tinggi dan yang membutuhkan grafis intensif.

Setiap jenis mesin G2 juga memiliki memori default dan rentang memori kustom. Rentang memori kustom menentukan jumlah memori yang dapat Anda alokasikan ke instance untuk setiap jenis mesin. Anda juga dapat menambahkan disk SSD Lokal saat membuat instance G2. Untuk mengetahui jumlah disk yang dapat Anda pasang, lihat Jenis mesin yang mengharuskan Anda memilih jumlah disk SSD Lokal.

Untuk mendapatkan kecepatan bandwidth jaringan yang lebih tinggi (50 Gbps atau lebih tinggi) yang diterapkan ke sebagian besar instance GPU, sebaiknya gunakan Google Virtual NIC (gVNIC). Untuk mengetahui informasi selengkapnya tentang cara membuat instance GPU yang menggunakan gVNIC, lihat Membuat instance GPU yang menggunakan bandwidth lebih tinggi.

GPU NVIDIA L4 terpasang
Jenis mesin Jumlah vCPU1 Memori instance default (GB) Rentang memori instance kustom (GB) SSD Lokal maksimum yang didukung (GiB) Bandwidth jaringan maksimum (Gbps)2 Jumlah GPU Memori GPU3 (GB GDDR6)
g2-standard-4 4 16 16 hingga 32 375 10 1 24
g2-standard-8 8 32 32 hingga 54 375 16 1 24
g2-standard-12 12 48 48 hingga 54 375 16 1 24
g2-standard-16 16 64 54 hingga 64 375 32 1 24
g2-standard-24 24 96 96 hingga 108 750 32 2 48
g2-standard-32 32 128 96 hingga 128 375 32 1 24
g2-standard-48 48 192 192 hingga 216 1.500 50 4 96
g2-standard-96 96 384 384 hingga 432 3.000 100 8 192

1vCPU diimplementasikan sebagai hardware hyper-thread tunggal di salah satu platform CPU yang tersedia.
2Bandwidth traffic keluar maksimum tidak boleh melebihi jumlah yang diberikan. Bandwidth traffic keluar yang sebenarnya bergantung pada alamat IP tujuan dan faktor lainnya. Untuk mengetahui informasi selengkapnya tentang bandwidth jaringan, lihat Bandwidth jaringan.
3Memori GPU adalah memori pada perangkat GPU yang dapat digunakan untuk penyimpanan data sementara. Memori ini terpisah dari memori instance dan dirancang khusus untuk menangani permintaan bandwidth yang lebih tinggi dari workload intensif grafis Anda.

Jenis mesin N1 + GPU

Untuk instance tujuan umum N1 yang memasang GPU T4 dan V100, Anda bisa mendapatkan bandwidth jaringan maksimum hingga 100 Gbps, berdasarkan kombinasi jumlah GPU dan vCPU. Untuk semua instance GPU N1 lainnya, lihat Ringkasan.

Tinjau bagian berikut untuk menghitung bandwidth jaringan maksimum yang tersedia untuk instance T4 dan V100 Anda berdasarkan model GPU, vCPU, dan jumlah GPU.

Kurang dari 5 vCPU

Untuk instance T4 dan V100 yang memiliki 5 vCPU atau kurang, tersedia bandwidth jaringan maksimum sebesar 10 Gbps.

Lebih dari 5 vCPU

Untuk instance T4 dan V100 yang memiliki lebih dari 5 vCPU, bandwidth jaringan maksimum dihitung berdasarkan jumlah vCPU dan GPU untuk VM tersebut.

Untuk mendapatkan kecepatan bandwidth jaringan yang lebih tinggi (50 Gbps atau lebih tinggi) yang diterapkan ke sebagian besar instance GPU, sebaiknya gunakan Google Virtual NIC (gVNIC). Untuk mengetahui informasi selengkapnya tentang cara membuat instance GPU yang menggunakan gVNIC, lihat Membuat instance GPU yang menggunakan bandwidth lebih tinggi.

Model GPU Jumlah GPU Penghitungan bandwidth jaringan maksimum
NVIDIA V100 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 32)
4 min(vcpu_count * 2, 50)
8 min(vcpu_count * 2, 100)
NVIDIA T4 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 50)
4 min(vcpu_count * 2, 100)

Setelan MTU dan jenis mesin GPU

Untuk memaksimalkan bandwidth jaringan, tetapkan nilai unit transmisi maksimum (MTU) yang lebih tinggi untuk jaringan VPC Anda. Nilai MTU yang lebih tinggi akan menambah ukuran paket dan mengurangi overhead header paket, sehingga meningkatkan throughput data payload.

Untuk jenis mesin GPU, sebaiknya gunakan setelan MTU berikut untuk jaringan VPC Anda.

Jenis mesin GPU MTU yang direkomendasikan (dalam byte)
Jaringan VPC Jaringan VPC dengan profil RDMA
  • A4X
  • A4
  • A3 Ultra
8896 8896
  • A3 Mega
  • A3 Tinggi
  • A3 Edge
8244 T/A
  • A2 Standard
  • A2 Ultra
  • G4
  • G2
  • Jenis mesin N1 yang mendukung GPU
8896 T/A

Saat menetapkan nilai MTU, perhatikan hal berikut:

  • 8192 adalah dua halaman 4 KB.
  • 8244 direkomendasikan di VM A3 Mega, A3 High, dan A3 Edge untuk NIC GPU yang mengaktifkan pemisahan header.
  • Gunakan nilai 8896, kecuali jika dinyatakan lain dalam tabel.

Membuat mesin GPU dengan bandwidth tinggi

Untuk membuat instance GPU yang menggunakan bandwidth jaringan yang lebih tinggi, gunakan salah satu metode berikut berdasarkan jenis mesin:

Apa langkah selanjutnya?