マシン ファミリーのリソースと比較ガイド

このドキュメントでは、必要なリソースを備えた仮想マシン(VM)インスタンスやベアメタル インスタンスを作成するために選択できるマシン ファミリー、マシンシリーズ、マシンタイプについて説明します。コンピューティング インスタンスを作成する場合、そのインスタンスで使用可能なリソースを決めるマシン ファミリーからマシンタイプを選択します。

選択できるマシン ファミリーは複数あります。各マシン ファミリーは、さらにマシンシリーズと、各シリーズ内の事前定義されたマシンタイプに分類されます。たとえば、汎用マシン ファミリーの N2 マシンシリーズの中では、n2-standard-4 マシンタイプを選択できます。

注: これは Compute Engine のマシン ファミリーのリストです。各ファミリーの詳細については、以下のページをご覧ください。
  • 汎用 - さまざまなワークロードで優れたコスト パフォーマンスを発揮します。
  • メモリ最適化 - メモリ使用量の多いワークロードに最適です。他のマシン ファミリーよりもコアあたりのメモリ容量が多く、最大で 12 TB のメモリを搭載しています。
  • アクセラレータ最適化 - ML やハイ パフォーマンス コンピューティング(HPC)など、超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに最適です。このファミリーは、GPU を必要とするワークロードに最適です。

Compute Engine の用語

このドキュメントでは、次の用語を使用します。

  • マシン ファミリー: 特定のワークロード(汎用、アクセラレータ最適化、メモリ最適化など)に合わせて最適化されたプロセッサとハードウェアから構成される一連のセット。

  • マシンシリーズ: マシン ファミリーは、シリーズ、世代、プロセッサ タイプでさらに分類されます。 各シリーズは、コンピューティング能力やパフォーマンスの異なる側面に重点を置いています。たとえば、M シリーズはより多くのメモリを提供し、C シリーズはより優れたパフォーマンスを提供します。

  • マシンタイプ: すべてのマシンシリーズには、1 つ以上のマシンタイプがあります。各マシンタイプには、コンピューティング インスタンス用のリソースの組み合わせ(vCPU、メモリ、ディスク、GPU など)が含まれています。

事前定義されたマシンタイプ

マシンタイプは事前定義されており、数が固定のメモリと vCPU が搭載されています。マシンタイプには、vCPU とメモリのさまざまな比率のものが存在します。

  • highcpu - vCPU あたり 1~3 GB のメモリ(通常は vCPU あたり 2 GB のメモリ)
  • standard - vCPU あたり 3~7 GB のメモリ(通常は vCPU あたり 4 GB のメモリ)
  • highmem - vCPU あたり 7~12 GB のメモリ(通常は vCPU あたり 8 GB のメモリ)
  • megamem - vCPU あたり 12~15 GB のメモリ(通常は vCPU あたり 14 GB のメモリ)
  • ultramem - vCPU あたり 24~31 GB のメモリ

たとえば、c3-standard-22 マシンタイプには 22 個の vCPU があり、standard マシンタイプとして 88 GB のメモリも備えています。

マシン ファミリーとシリーズの推奨事項

次の表に、ワークロードごとの推奨事項を示します。

C3 M3 A3
さまざまなワークロードに対して一貫して高いパフォーマンスを実現 メモリ使用量の多いワークロード向けに最大のメモリ対コンピューティング比率を実現 高速のハイ パフォーマンス コンピューティング ワークロード向けに最適化
  • トラフィックの多いウェブサーバーとアプリサーバー
  • データベース
  • メモリ内キャッシュ
  • 広告サーバー
  • ゲームサーバー
  • データ分析
  • メディア ストリーミングとコード変換
  • CPU ベースの ML トレーニングと推論
  • 小規模から特大規模の SAP HANA インメモリ データベース
  • Redis などのインメモリ データストア
  • シミュレーション
  • Microsoft SQL Server、MySQL などのハイ パフォーマンス データベース
  • 電子設計自動化
  • 次のような生成 AI モデル:
    • 大規模言語モデル(LLM)
    • 拡散モデル
    • 敵対的生成ネットワーク(GAN)
  • Compute Unified Device Architecture(CUDA)対応の ML トレーニングと推論
  • ハイ パフォーマンス コンピューティング(HPC)
  • 超並列コンピューティング
  • BERT 自然言語処理
  • ディープ ラーニング レコメンデーション モデル(DLRM)
  • 動画のコード変換
  • リモート可視化ワークステーション

コンピューティング インスタンスを作成したら、サイズ適正化の推奨事項を使用し、ワークロードに基づいてリソース使用量を最適化できます。詳細については、VM に推奨マシンタイプを適用するをご覧ください。

汎用マシン ファミリー ガイド

汎用マシン ファミリーでは、さまざまなワークロードに最適な価格性能比のマシンシリーズが複数提供されています。

Compute Engine では、x86 アーキテクチャで動作する汎用マシンタイプを提供しています。C3 マシンシリーズは、最大 176 基の vCPU、vCPU あたり 2、4 または 8 GB のメモリを備え、Intel Sapphire Rapids CPU プラットフォームと Titanium で使用できます。C3 インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。

メモリ最適化マシン ファミリー ガイド

メモリ最適化マシン ファミリーには、OLAP と OLTP SAP のワークロード、ゲノム モデリング、電子設計自動化、メモリ使用量の多い HPC ワークロードに最適なマシンシリーズが用意されています。このファミリーは他のマシン ファミリーより 1 コアあたりのメモリ容量が大きく、最大4 TBのメモリを搭載します。

M3 インスタンスは最大 128 個の vCPU、vCPU あたり最大 30.5 GB のメモリを備え、インテルの Ice Lake CPU プラットフォームで使用できます。

アクセラレータ最適化マシン ファミリー ガイド

アクセラレータ最適化マシン ファミリーは、ML やハイ パフォーマンス コンピューティング(HPC)などの超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに最適です。このマシン ファミリーは、GPU を必要とするワークロードに最適な選択肢です。

A3 インスタンスは、A3 Edge マシンタイプ(a3-edgegpu-8g-nolssd)で使用できます。このマシンタイプは、Intel Sapphire Rapids CPU プラットフォームと Titanium で、208 個の vCPU、1,872 GB のメモリ、8 個の NVIDIA H100 GPU を提供します。

マシンシリーズの比較

選択内容がコンピューティング インスタンスにアタッチされているディスク ボリュームのパフォーマンスに与える影響については、Hyperdisk のパフォーマンスの上限をご覧ください。

C3、M3、A3 マシンシリーズの特性を比較します。「比較するインスタンス プロパティを選択する」で特定のプロパティを選択すると、以下の表ですべてのマシンシリーズのプロパティを比較できます。

C3 M3 A3 Edge
ワークロード タイプ 汎用 メモリ最適化 アクセラレータ最適化
インスタンスのタイプ VM VM VM
CPU タイプ Intel Sapphire Rapids Intel Ice Lake Intel Sapphire Rapids
アーキテクチャ x86 x86 x86
vCPU 4~176 32~128 208
vCPU の定義 スレッド スレッド スレッド
メモリ 8~1,408 GB 976~3,904 GB 1,872 GB
カスタム マシンタイプ
拡張メモリ
単一テナンシー
ネストされた仮想化
Confidential Computing
ディスク インターフェースの種類 NVMe NVMe NVMe
Hyperdisk Balanced
Hyperdisk Balanced HA
Hyperdisk Extreme
Hyperdisk ML
Hyperdisk Throughput
ローカル SSD
最大ローカル SSD 0 0 0
標準 PD
バランス PD
SSD PD
エクストリーム PD
ネットワーク インターフェース gVNIC と IDPF gVNIC gVNIC
ネットワーク パフォーマンス 23~100 Gbps 最大 32 Gbps 最大 800 Gbps
高帯域幅ネットワーク 50~200 Gbps 50~100 Gbps 最大 800 Gbps
GPU の最大数 0 0 8
継続利用割引
確約利用割引
Spot VM の割引

GPU とコンピューティング インスタンス

GPU はワークロードの高速化に使用され、A3 インスタンスでサポートされます。A3 インスタンスを作成すると、GPU が自動的に接続されます。A3 インスタンスには、マシンタイプごとに固定数の GPU、vCPU、メモリが割り当てられています。

詳細については、Compute Engine の GPU をご覧ください。

次のステップ