在 GKE Autopilot 模式中,使用 GPU 訓練模型
本快速入門導覽課程說明如何在 Google Kubernetes Engine (GKE) 中使用 GPU 部署訓練模型,並將預測結果儲存在 Cloud Storage 中。本文適用於已建立 Autopilot 模式叢集,且想首次執行 GPU 工作負載的 GKE 管理員。
您也可以在叢集中建立個別的 GPU 節點集區,在標準叢集上執行這些工作負載。如需操作說明,請參閱「在 GKE Standard 模式下使用 GPU 訓練模型」。
事前準備
-
In the Trusted Cloud console, on the project selector page, select or create a Trusted Cloud project.
-
Make sure that billing is enabled for your Trusted Cloud project.
-
Enable the GKE and Cloud Storage APIs.
-
Install the Google Cloud CLI.
-
Configure the gcloud CLI to use your federated identity.
For more information, see Sign in to the gcloud CLI with your federated identity.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
In the Trusted Cloud console, activate Cloud Shell.
At the bottom of the Trusted Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
複製範例存放區
在 Cloud Shell 中執行下列指令:
git clone https://github.com/GoogleCloudPlatform/ai-on-gke && \
cd ai-on-gke/tutorials-and-examples/gpu-examples/training-single-gpu
建立叢集
在 Trusted Cloud 控制台中,前往「Create an Autopilot cluster」(建立 Autopilot 叢集) 頁面:
在「Name」(名稱) 欄位中輸入
gke-gpu-cluster
。在「Region」(區域) 清單中選取「
us-central1
」。點選「建立」。
建立 Cloud Storage 值區
前往 Trusted Cloud 控制台的「Create a bucket」(建立 bucket) 頁面:
在「Name your bucket」(為 bucket 命名) 欄位中輸入下列名稱:
PROJECT_ID-gke-gpu-bucket
將
PROJECT_ID
替換為專案 ID。 Trusted Cloud按一下「繼續」。
在「位置類型」部分,選取「區域」。
在「Region」(區域) 清單中選取「
us-central1 (Iowa)
」,然後按一下「Continue」(繼續)。在「Choose a storage class for your data」(為資料選擇儲存空間級別) 專區中,按一下「Continue」(繼續)。
在「Choose how to control access to objects」(選取如何控制物件的存取權) 專區中,針對「Access control」(存取控管) 選取「Uniform」(統一)。
點選「建立」。
在「系統會禁止公開存取」對話方塊中,確認已選取「強制禁止公開存取這個 bucket」核取方塊,然後按一下「確認」。
設定叢集,透過 Workload Identity Federation for GKE 存取儲存空間
如要讓叢集存取 Cloud Storage bucket,請執行下列操作:
- 在叢集中建立 Kubernetes ServiceAccount。
- 建立 IAM 允許政策,讓 ServiceAccount 存取值區。
在叢集中建立 Kubernetes ServiceAccount
在 Cloud Shell 中執行下列操作:
連線至叢集:
gcloud container clusters get-credentials gke-gpu-cluster \ --location=us-central1
建立 Kubernetes 命名空間:
kubectl create namespace gke-gpu-namespace
在命名空間中建立 Kubernetes ServiceAccount:
kubectl create serviceaccount gpu-k8s-sa --namespace=gke-gpu-namespace
在 bucket 上建立 IAM 允許政策
在 bucket 上將 Storage 物件管理員 (roles/storage.objectAdmin
) 角色授予 Kubernetes ServiceAccount:
gcloud storage buckets add-iam-policy-binding gs://PROJECT_ID-gke-gpu-bucket \
--member=principal://iam.googleapis.com/projects/PROJECT_NUMBER/locations/global/workloadIdentityPools/PROJECT_ID.svc.id.goog/subject/ns/gke-gpu-namespace/sa/gpu-k8s-sa \
--role=roles/storage.objectAdmin \
--condition=None
將 PROJECT_NUMBER
替換為專案編號。 Trusted Cloud
確認 Pod 可以存取 Cloud Storage bucket
在 Cloud Shell 中建立下列環境變數:
export K8S_SA_NAME=gpu-k8s-sa export BUCKET_NAME=PROJECT_ID-gke-gpu-bucket
將
PROJECT_ID
替換為專案 ID。 Trusted Cloud建立具有 TensorFlow 容器的 Pod:
envsubst < src/gke-config/standard-tensorflow-bash.yaml | kubectl --namespace=gke-gpu-namespace apply -f -
這個指令會將您建立的環境變數插入資訊清單中的對應參照。您也可以在文字編輯器中開啟資訊清單,然後將
$K8S_SA_NAME
和$BUCKET_NAME
替換為對應的值。在 bucket 中建立範例檔案:
touch sample-file gcloud storage cp sample-file gs://PROJECT_ID-gke-gpu-bucket
等待 Pod 準備就緒:
kubectl wait --for=condition=Ready pod/test-tensorflow-pod -n=gke-gpu-namespace --timeout=180s
Pod 準備就緒時,輸出內容如下:
pod/test-tensorflow-pod condition met
如果指令逾時,GKE 可能仍在建立新的節點來執行 Pod。再次執行指令,並等待 Pod 準備就緒。
在 TensorFlow 容器中開啟殼層:
kubectl -n gke-gpu-namespace exec --stdin --tty test-tensorflow-pod --container tensorflow -- /bin/bash
嘗試讀取您建立的範例檔案:
ls /data
輸出畫面會顯示範例檔案。
查看記錄,找出附加至 Pod 的 GPU:
python -c "import tensorflow as tf; print(tf.config.list_physical_devices('GPU'))"
輸出內容會顯示附加至 Pod 的 GPU,如下所示:
... PhysicalDevice(name='/physical_device:GPU:0',device_type='GPU')
結束容器:
exit
刪除範例 Pod:
kubectl delete -f src/gke-config/standard-tensorflow-bash.yaml \ --namespace=gke-gpu-namespace
使用 MNIST
資料集訓練及預測
在本節中,您將在 MNIST
範例資料集上執行訓練工作負載。
將範例資料複製到 Cloud Storage 值區:
gcloud storage cp src/tensorflow-mnist-example gs://PROJECT_ID-gke-gpu-bucket/ --recursive
建立下列的環境變數:
export K8S_SA_NAME=gpu-k8s-sa export BUCKET_NAME=PROJECT_ID-gke-gpu-bucket
查看訓練工作:
部署訓練工作:
envsubst < src/gke-config/standard-tf-mnist-train.yaml | kubectl -n gke-gpu-namespace apply -f -
這個指令會將您建立的環境變數,取代為資訊清單中的對應參照。您也可以在文字編輯器中開啟資訊清單,然後將
$K8S_SA_NAME
和$BUCKET_NAME
替換為對應的值。請等待工作達到
Completed
狀態:kubectl wait -n gke-gpu-namespace --for=condition=Complete job/mnist-training-job --timeout=180s
Job 準備就緒時,輸出內容會類似於下列內容:
job.batch/mnist-training-job condition met
如果指令逾時,GKE 可能仍在建立新的節點來執行 Pod。再次執行指令,並等待 Job 準備就緒。
檢查 TensorFlow 容器的記錄:
kubectl logs -f jobs/mnist-training-job -c tensorflow -n gke-gpu-namespace
輸出內容會顯示下列事件:
- 安裝必要的 Python 套件
- 下載 MNIST 資料集
- 使用 GPU 訓練模型
- 儲存模型
- 評估模型
... Epoch 12/12 927/938 [============================>.] - ETA: 0s - loss: 0.0188 - accuracy: 0.9954 Learning rate for epoch 12 is 9.999999747378752e-06 938/938 [==============================] - 5s 6ms/step - loss: 0.0187 - accuracy: 0.9954 - lr: 1.0000e-05 157/157 [==============================] - 1s 4ms/step - loss: 0.0424 - accuracy: 0.9861 Eval loss: 0.04236088693141937, Eval accuracy: 0.9861000180244446 Training finished. Model saved
刪除訓練工作負載:
kubectl -n gke-gpu-namespace delete -f src/gke-config/standard-tf-mnist-train.yaml
部署推論工作負載
在本節中,您會部署推論工作負載,將範例資料集做為輸入內容,並傳回預測結果。
將用於預測的圖片複製到 bucket:
gsutil -m cp -R data/mnist_predict gs://PROJECT_ID-gke-gpu-bucket/
查看推論工作負載:
部署推論工作負載:
envsubst < src/gke-config/standard-tf-mnist-batch-predict.yaml | kubectl -n gke-gpu-namespace apply -f -
這個指令會將您建立的環境變數,取代為資訊清單中的對應參照。您也可以在文字編輯器中開啟資訊清單,然後將
$K8S_SA_NAME
和$BUCKET_NAME
替換為對應的值。請等待工作達到
Completed
狀態:kubectl wait -n gke-gpu-namespace --for=condition=Complete job/mnist-batch-prediction-job --timeout=180s
輸出結果會與下列內容相似:
job.batch/mnist-batch-prediction-job condition met
檢查 TensorFlow 容器的記錄:
kubectl logs -f jobs/mnist-batch-prediction-job -c tensorflow -n gke-gpu-namespace
輸出內容會顯示每張圖片的預測結果,以及模型對預測結果的信心程度,如下所示:
Found 10 files belonging to 1 classes. 1/1 [==============================] - 2s 2s/step The image /data/mnist_predict/0.png is the number 0 with a 100.00 percent confidence. The image /data/mnist_predict/1.png is the number 1 with a 99.99 percent confidence. The image /data/mnist_predict/2.png is the number 2 with a 100.00 percent confidence. The image /data/mnist_predict/3.png is the number 3 with a 99.95 percent confidence. The image /data/mnist_predict/4.png is the number 4 with a 100.00 percent confidence. The image /data/mnist_predict/5.png is the number 5 with a 100.00 percent confidence. The image /data/mnist_predict/6.png is the number 6 with a 99.97 percent confidence. The image /data/mnist_predict/7.png is the number 7 with a 100.00 percent confidence. The image /data/mnist_predict/8.png is the number 8 with a 100.00 percent confidence. The image /data/mnist_predict/9.png is the number 9 with a 99.65 percent confidence.
清除所用資源
如要避免系統向您的 Trusted Cloud 帳戶收取本指南所建立資源的費用,請採取下列任一做法:
- 保留 GKE 叢集:刪除叢集中的 Kubernetes 資源和 Trusted Cloud 資源
- 保留專案:刪除 GKE 叢集和 Trusted Cloud 資源 Trusted Cloud
- 刪除專案
刪除叢集中的 Kubernetes 資源和 Trusted Cloud 資源
刪除 Kubernetes 命名空間和您部署的工作負載:
kubectl -n gke-gpu-namespace delete -f src/gke-config/standard-tf-mnist-batch-predict.yaml kubectl delete namespace gke-gpu-namespace
刪除 Cloud Storage bucket:
前往「Buckets」(值區) 頁面:
勾選
PROJECT_ID-gke-gpu-bucket
的核取方塊。按一下「刪除」圖示
。如要確認刪除,請輸入
DELETE
,然後按一下「刪除」。
刪除 Trusted Cloud 服務帳戶:
前往「Service accounts」(服務帳戶) 頁面:
選取專案。
勾選
gke-gpu-sa@PROJECT_ID.s3ns-system.iam.gserviceaccount.com
的核取方塊。按一下「刪除」圖示
。如要確認刪除,請按一下「刪除」。
刪除 GKE 叢集和 Trusted Cloud 資源
刪除 GKE 叢集:
前往「Clusters」(叢集) 頁面:
勾選
gke-gpu-cluster
的核取方塊。按一下「刪除」圖示
。如要確認刪除,請輸入
gke-gpu-cluster
,然後按一下「刪除」。
刪除 Cloud Storage bucket:
前往「Buckets」(值區) 頁面:
勾選
PROJECT_ID-gke-gpu-bucket
的核取方塊。按一下「刪除」圖示
。如要確認刪除,請輸入
DELETE
,然後按一下「刪除」。
刪除 Trusted Cloud 服務帳戶:
前往「Service accounts」(服務帳戶) 頁面:
選取專案。
勾選
gke-gpu-sa@PROJECT_ID.s3ns-system.iam.gserviceaccount.com
的核取方塊。按一下「刪除」圖示
。如要確認刪除,請按一下「刪除」。
刪除專案
- In the Trusted Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.