Créer un cluster et déployer une charge de travail à l'aide de Terraform
Un cluster Kubernetes fournit des ressources de calcul, de stockage, de mise en réseau et d'autres services pour les applications, semblables à un centre de données virtuel. Les applications et les services associés qui s'exécutent dans Kubernetes sont appelés charges de travail.
Ce tutoriel vous permet de voir rapidement un cluster Google Kubernetes Engine et un exemple de charge de travail en cours d'exécution, le tout configuré à l'aide de Terraform. Vous pouvez ensuite explorer la charge de travail dans la console Cloud de Confiance avant de passer à notre parcours de formation plus approfondi ou de commencer à planifier et à créer votre propre cluster prêt pour la production. Dans ce tutoriel, nous partons du principe que vous connaissez déjà Terraform.
Si vous préférez configurer votre cluster et votre charge de travail dans la console Cloud de Confiance , consultez Créer un cluster dans la console Cloud de Confiance .
Avant de commencer
Procédez comme suit pour activer l'API Kubernetes Engine :
-
Install the Google Cloud CLI.
-
Configurez la gcloud CLI afin d'utiliser votre identité fédérée.
Pour en savoir plus, consultez Se connecter à la gcloud CLI avec votre identité fédérée.
-
Pour initialiser la gcloud CLI, exécutez la commande suivante :
gcloud init -
Create or select a Cloud de Confiance project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Create a Cloud de Confiance project:
gcloud projects create PROJECT_ID
Replace
PROJECT_IDwith a name for the Cloud de Confiance project you are creating. -
Select the Cloud de Confiance project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_IDwith your Cloud de Confiance project name.
-
Verify that billing is enabled for your Cloud de Confiance project.
-
Enable the GKE API:
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.gcloud services enable container.googleapis.com
-
Grant roles to your user account. Run the following command once for each of the following IAM roles:
roles/container.admin, roles/compute.networkAdmin, roles/iam.serviceAccountUsergcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
Replace the following:
PROJECT_ID: Your project ID.USER_IDENTIFIER: The identifier for your user account. For examples, see Represent workforce pool users in IAM policies.ROLE: The IAM role that you grant to your user account.
Lancez une session Cloud Shell depuis la console Cloud de Confiance en cliquant sur l'icône d'activation Cloud Shell Activer Cloud Shell
. Une session s'ouvre dans le volet inférieur de la console Cloud de Confiance .Les identifiants de service associés à cette machine virtuelle sont automatiques. Vous n'avez donc pas besoin de configurer ni de télécharger une clé de compte de service.
Avant d'exécuter des commandes, définissez votre projet par défaut dans gcloud CLI à l'aide de la commande suivante :
gcloud config set project PROJECT_IDRemplacez
PROJECT_IDpar votre ID de projet.Clonez le dépôt GitHub.
git clone https://github.com/terraform-google-modules/terraform-docs-samples.git --single-branchAccédez au répertoire de travail :
cd terraform-docs-samples/gke/quickstart/autopilotExaminez le fichier
cluster.tf:cat cluster.tfLe résultat ressemble à ce qui suit :
Ce fichier décrit les ressources suivantes :
google_compute_network: réseau VPC avec IPv6 interne activé.google_compute_subnetwork: sous-réseau à double pile.google_container_cluster: cluster en mode Autopilot à double pile situé dansus-central1. Le paramètredeletion_protectionindique si vous pouvez utiliser Terraform pour supprimer ce cluster. Si vous définissez la valeur du champdeletion_protectionsurfalse, Terraform peut supprimer le cluster. Pour en savoir plus, consultez la documentation de référence surgoogle_container_cluster.
Examinez le fichier
app.tf:cat app.tfLe résultat ressemble à ce qui suit :
Ce fichier décrit les ressources suivantes :
- Un déploiement avec un exemple d'image de conteneur.
- Un service de type LoadBalancer. Le service expose le déploiement sur le port 80.
Dans
cluster.tf, remplacezipv6_access_typeparEXTERNAL.INTERNALipv6_access_type = "EXTERNAL"Dans
app.tf, configurez un équilibreur de charge externe en supprimant l'annotationnetworking.gke.io/load-balancer-type.annotations = { "networking.gke.io/load-balancer-type" = "Internal" # Remove this line }Dans Cloud Shell, exécutez la commande suivante pour vérifier que Terraform est disponible :
terraformLa sortie devrait ressembler à ce qui suit :
Usage: terraform [global options] <subcommand> [args] The available commands for execution are listed below. The primary workflow commands are given first, followed by less common or more advanced commands. Main commands: init Prepare your working directory for other commands validate Check whether the configuration is valid plan Show changes required by the current configuration apply Create or update infrastructure destroy Destroy previously-created infrastructureInitialisez Terraform :
terraform initPlanifiez la configuration Terraform :
terraform planAppliquez la configuration Terraform :
terraform applyLorsque vous y êtes invité, saisissez
yespour confirmer les actions. Cette commande peut prendre plusieurs minutes. Le résultat ressemble à ce qui suit :Apply complete! Resources: 6 added, 0 changed, 0 destroyed.Accédez à la page Charges de travail dans la console Cloud de Confiance :
Cliquez sur la charge de travail
example-hello-app-deployment. La page des détails du pod s'affiche. Cette page affiche des informations sur le pod, telles que les annotations, les conteneurs s'exécutant sur le pod, les services exposant le pod, mais aussi les métriques telles que l'utilisation du processeur, de la mémoire et du disque.Accédez à la page Services et entrées dans la console Cloud de Confiance :
Cliquez sur le Service LoadBalancer
example-hello-app-loadbalancer. La page "Informations sur le service" s'affiche. Cette page affiche des informations sur le service, telles que les pods associés et les ports utilisés par les services.Dans la section Points de terminaison externes, cliquez sur lien IPv4 ou lien IPv6 pour afficher votre service dans le navigateur. Le résultat ressemble à ce qui suit :
Hello, world! Version: 2.0.0 Hostname: example-hello-app-deployment-5df979c4fb-kdwgrDans Cloud Shell, exécutez la commande suivante pour supprimer les ressources Terraform :
terraform destroy --auto-approveSupprimez les règles de pare-feu :
gcloud compute firewall-rules list --filter="NETWORK:example-network" --format="table[no-heading](name)" | xargs gcloud --quiet compute firewall-rules deleteExécutez à nouveau la commande Terraform :
terraform destroy --auto-approveExplorez votre cluster et votre charge de travail dans la console Cloud de Confiance pour découvrir certains des paramètres et ressources clés que vous avez déployés.
Pour en savoir plus sur la configuration et l'utilisation de Terraform avec GKE, consultez Compatibilité de Terraform avec GKE.
Essayez notre Parcours de formation plus détaillé : Applications évolutives.
Découvrez comment commencer à administrer des clusters dans la Présentation de l'administration de cluster.
Préparer l'environnement
Dans ce tutoriel, vous utilisez Cloud Shell pour gérer les ressources hébergées surCloud de Confiance by S3NS. Cloud Shell est préinstallé avec les logiciels dont vous avez besoin dans ce tutoriel, y compris Terraform, kubectl et Google Cloud CLI.
Examiner les fichiers Terraform
Le fournisseurCloud de Confiance by S3NS est un plug-in qui vous permet de gérer et de provisionner des ressources Cloud de Confiance à l'aide de Terraform. Il sert de passerelle entre les configurations Terraform et les API Cloud de Confiance , ce qui vous permet de définir de manière déclarative des ressources d'infrastructure, telles que des machines virtuelles et des réseaux.
Le cluster et l'exemple d'application pour ce tutoriel sont spécifiés dans deux fichiers Terraform qui utilisent les fournisseurs Cloud de Confiance by S3NS et Kubernetes.
(Facultatif) Exposer l'application sur Internet
Les fichiers Terraform de l'exemple décrivent une application avec une adresse IP interne, qui n'est accessible que depuis le même cloud privé virtuel (VPC) que l'application exemple. Si vous souhaitez accéder à l'interface Web de l'application de démonstration en cours d'exécution depuis Internet (par exemple, depuis votre ordinateur portable), modifiez les fichiers Terraform pour créer une adresse IP publique à la place avant de créer le cluster. Pour ce faire, vous pouvez utiliser un éditeur de texte directement dans Cloud Shell ou l'éditeur Cloud Shell.
Pour exposer l'application de démonstration sur Internet :
Créer un cluster et déployer une application
Vérifier que le cluster fonctionne
Procédez comme suit pour vérifier que votre cluster fonctionne correctement :
Effectuer un nettoyage
Pour éviter que les ressources utilisées dans cette démonstration soient facturées sur votre compte Cloud de Confiance , supprimez le projet Cloud de Confiance qui les contient.
Si vous prévoyez de suivre d'autres tutoriels ou d'explorer davantage votre exemple, attendez d'avoir terminé avant de procéder à cette étape de nettoyage.
Résoudre les erreurs de nettoyage
Si un message d'erreur semblable à The network resource 'projects/PROJECT_ID/global/networks/example-network' is already being used by 'projects/PROJECT_ID/global/firewalls/example-network-yqjlfql57iydmsuzd4ot6n5v' apparaît, procédez comme suit :