In diesem Dokument werden die Maschinenfamilien, Maschinenserien und Maschinentypen beschrieben, aus denen Sie zum Erstellen einer VM-Instanz oder Bare-Metal-Instanz mit den benötigten Ressourcen auswählen können. Wenn Sie eine Compute-Instanz erstellen, wählen Sie einen Maschinentyp aus einer Maschinenfamilie aus, die die für diese Instanz verfügbaren Ressourcen bestimmt.
Sie können aus mehreren Maschinenfamilien wählen. Jede Maschinenfamilie ist weiter in Maschinenserien und vordefinierte Maschinentypen in jeder Serie unterteilt. In der N2-Serie in der Maschinenfamilie für allgemeine Zwecke können Sie beispielsweise den Maschinentyp n2-standard-4 auswählen.
- Für allgemeine Zwecke: Das beste Preis-Leistungs-Verhältnis für eine Vielzahl von Arbeitslasten.
- Speicheroptimiert: Ideal für speicherintensive Arbeitslasten, mit mehr Arbeitsspeicher pro Kern als bei anderen Maschinenfamilien und bis zu 12 TB Arbeitsspeicher.
- Beschleunigungsoptimiert: Ideal für extrem parallelisierte CUDA-Computing-Arbeitslasten (Compute Unified Device Architecture), z. B. maschinelles Lernen (ML) und Hochleistungs-Computing (HPC). Diese Familie ist die beste Option für Arbeitslasten, die GPUs erfordern.
Compute Engine-Terminologie
In dieser Dokumentation werden die folgenden Begriffe verwendet:
- Maschinenfamilie: Eine ausgewählte Reihe von Prozessor- und Hardwarekonfigurationen, die für bestimmte Arbeitslasten optimiert sind, z. B. Allzweck-, beschleunigeroptimierte oder speicheroptimierte Maschinen.
Maschinenserie: Maschinenfamilien werden weiter nach Serie, Generation und Prozessortyp klassifiziert. Jede Reihe konzentriert sich auf einen anderen Aspekt der Rechenleistung oder Leistung. Die M-Serie bietet beispielsweise mehr Arbeitsspeicher, während die C-Serie eine bessere Leistung bietet.
Maschinentyp: Jede Maschinenserie bietet mindestens einen Maschinentyp. Jeder Maschinentyp bietet eine Reihe von Ressourcen für Ihre Compute-Instanz, z. B. vCPUs, Arbeitsspeicher, Festplatten und GPUs.
Vordefinierte Maschinentypen
Maschinentypen sind vordefiniert und haben eine nicht konfigurierbare Menge an Arbeitsspeicher und vCPUs. Die Maschinentypen verwenden verschiedene Verhältnisse von vCPU zu Arbeitsspeicher:
highcpu: 1 bis 3 GB Arbeitsspeicher pro vCPU; in der Regel 2 GB Arbeitsspeicher pro vCPU.standard– 3 bis 7 GB Arbeitsspeicher pro vCPU; in der Regel 4 GB Arbeitsspeicher pro vCPU.highmem– 7 bis 12 GB Arbeitsspeicher pro vCPU; in der Regel 8 GB Arbeitsspeicher pro vCPU.megamem: 12 bis 15 GB Arbeitsspeicher pro vCPU, in der Regel 14 GB Arbeitsspeicher pro vCPU.ultramem– 24 bis 31 GB Arbeitsspeicher pro vCPU.
Ein Maschinentyp c3-standard-22 hat beispielsweise 22 vCPUs und als Maschinentyp standard auch 88 GB Arbeitsspeicher.
Empfehlungen für Maschinenfamilien und -serien
Die folgende Tabelle enthält Empfehlungen für verschiedene Arbeitslasten.
| C3 | M3 | A3 |
|---|---|---|
| Konstant hohe Leistung für eine Vielzahl von Arbeitslasten | Höchstes Verhältnis von Arbeitsspeicher pro Rechenoperationen für arbeitsspeicherintensive Arbeitslasten | Für beschleunigte Hochleistungs-Computing-Arbeitslasten optimiert |
|
|
|
Nachdem Sie eine Compute-Instanz erstellt haben, können Sie die Empfehlungen zur Größenanpassung verwenden, um die Ressourcennutzung basierend auf Ihrer Arbeitslast zu optimieren. Weitere Informationen finden Sie unter Empfehlungen für Maschinentypen für VMs anwenden.
Anleitung für Maschinenfamilien für allgemeine Zwecke
Die Maschinenfamilie für allgemeine Zwecke bietet mehrere Maschinenserien mit dem besten Preis-Leistungs-Verhältnis für eine Vielzahl von Arbeitslasten.
Compute Engine bietet allgemeine Maschinentypen, die in der x86-Architektur ausgeführt werden. Die C3-Maschinenserie bietet bis zu 176 vCPUs und 2, 4 oder 8 GB Arbeitsspeicher pro vCPU auf der Intel Sapphire Rapids-CPU-Plattform und Titanium. C3-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
Leitfaden zur speicheroptimierten Maschinenfamilie
Die speicheroptimierte Maschinenfamilie umfasst Maschinenreihen, die sich ideal für OLAP- und OLTP-SAP-Arbeitslasten, genomische Modellierung, elektronische Designautomatisierung und speicherintensive HPC-Arbeitslasten eignen. Diese Familie bietet mit bis zu4 TBmehr Arbeitsspeicher pro Kern als jede andere Maschinenfamilie.
M3-Instanzen bieten bis zu 128 vCPUs mit bis zu 30,5 GB Arbeitsspeicher pro vCPU und sind auf der Intel Ice Lake-CPU-Plattform verfügbar.
Leitfaden zur beschleunigungsoptimierten Maschinenfamilie
Die beschleunigungsoptimierte Maschinenfamilie eignet sich ideal für massenhaft parallelisierte CUDA-Computing-Arbeitslasten (Compute Unified Device Architecture), wie: Machine Learning (ML) und Hochleistungs-Computing (HPC). Diese Maschinenfamilie ist die optimale Wahl für Arbeitslasten, die GPUs erfordern.
A3-Instanzen sind mit dem Maschinentyp „A3 Edge“ (a3-edgegpu-8g-nolssd) verfügbar, der 208 vCPUs, 1.872 GB Arbeitsspeicher und 8 NVIDIA H100-GPUs auf der CPU-Plattform Intel Sapphire Rapids und Titanium bietet.
Maschinenserienvergleich
Informationen dazu, wie sich Ihre Auswahl auf die Leistung von an Compute-Instanzen angehängten Laufwerk-Volumes auswirkt, finden Sie unter Hyperdisk-Leistungsgrenzen.
Vergleichen Sie die Eigenschaften der Maschinenserien C3, M3 und A3. Sie können bestimmte Attribute im Feld Instanzattribute zum Vergleich auswählen auswählen, um sie für alle Maschinenserien in der folgenden Tabelle zu vergleichen.
| C3 | M3 | A3 Edge | |
|---|---|---|---|
| Arbeitslasttyp | Allgemeiner Zweck | Speicheroptimiert | Beschleunigungsoptimiert |
| Instanztyp | VM | VM | VM |
| CPU-Typ | Intel Sapphire Rapids | Intel Ice Lake | Intel Sapphire Rapids |
| Architektur | x86 | x86 | x86 |
| vCPUs | 4 bis 176 | 32 bis 128 | 208 |
| vCPU-Definition | Thread | Thread | Thread |
| Speicher | 8 bis 1.408 GB | 976 bis 3.904 GB | 1.872 GB |
| Benutzerdefinierte Maschinentypen | — | — | — |
| Erweiterter Speicher | — | — | — |
| Einzelne Mandanten | — | ||
| Verschachtelte Virtualisierung | — | — | |
| Confidential Computing | — | — | — |
| Typ der Laufwerkschnittstelle | NVMe | NVMe | NVMe |
| Hyperdisk abgestimmt | |||
| Hyperdisk Balanced HA | — | — | — |
| Hyperdisk Extrem | — | — | — |
| Hyperdisk ML | — | — | — |
| Hyperdisk Durchsatz | — | — | — |
| Lokale SSD | — | — | — |
| Maximale lokale SSD | 0 | 0 | 0 |
| Nichtflüchtiger Standardspeicher | — | — | — |
| Abgestimmter nichtflüchtiger Speicher | — | — | — |
| Nichtflüchtiger SSD-Speicher | — | — | — |
| Extrem nichtflüchtiger Speicher | — | — | — |
| Netzwerkschnittstellen | gVNIC und IDPF | gVNIC | gVNIC |
| Netzwerkleistung | 23 bis 100 Gbit/s | bis zu 32 Gbit/s | bis zu 800 Gbit/s |
| Netzwerk mit hoher Bandbreite | 50 bis 200 Gbit/s | 50 bis 100 Gbit/s | bis zu 800 Gbit/s |
| Maximale GPUs | 0 | 0 | 8 |
| Rabatte für kontinuierliche Nutzung | — | — | — |
| Rabatte für zugesicherte Nutzung | — | — | — |
| Spot-VM-Rabatte | — | — | — |
GPUs und Compute-Instanzen
GPUs werden verwendet, um Arbeitslasten zu beschleunigen, und werden für A3-Instanzen unterstützt. Die GPUs werden beim Erstellen der Instanz automatisch angehängt. A3-Instanzen haben eine feste Anzahl von GPUs, vCPUs und Arbeitsspeicher pro Maschinentyp.
Weitere Informationen finden Sie unter GPUs in Compute Engine.
Nächste Schritte
Führen Sie die Kurzanleitung: Linux-VM verwenden aus.
Weitere Informationen zum Anhängen von Blockspeicher an Ihre VMs.