Créer un cluster et déployer une charge de travail à l'aide de Terraform
Un cluster Kubernetes fournit des ressources de calcul, de stockage, de mise en réseau et d'autres services pour les applications, semblables à un centre de données virtuel. Les applications et les services associés qui s'exécutent dans Kubernetes sont appelés charges de travail.
Ce tutoriel vous permet de voir rapidement un cluster Google Kubernetes Engine en cours d'exécution et un exemple de charge de travail, le tout configuré à l'aide de Terraform. Vous pouvez ensuite explorer la charge de travail dans la Cloud de Confiance console avant de passer à notre parcours de formation plus approfondi ou de commencer à planifier et à créer votre propre cluster prêt pour la production. Dans ce tutoriel, nous partons du principe que vous connaissez déjà Terraform.
Si vous préférez configurer votre cluster et votre charge de travail dans la Cloud de Confiance console, consultez la section Créer un cluster dans la Cloud de Confiance console.
Avant de commencer
Procédez comme suit pour activer l'API Kubernetes Engine :
-
Installez la Google Cloud CLI.
-
Configurez la gcloud CLI afin d'utiliser votre identité fédérée.
Pour en savoir plus, consultez Se connecter à la gcloud CLI avec votre identité fédérée.
-
Pour initialiser la gcloud CLI, exécutez la commande suivante :
gcloud init -
Créez ou sélectionnez un Cloud de Confiance projet.
Rôles requis pour sélectionner ou créer un projet
- Sélectionner un projet : la sélection d'un projet ne nécessite pas de rôle IAM spécifique Vous pouvez sélectionner n'importe quel projet pour lequel un rôle vous a été attribué.
-
Créer un projet : pour créer un projet, vous avez besoin du rôle Créateur de projet
(
roles/resourcemanager.projectCreator), qui contient l'autorisationresourcemanager.projects.create. Découvrez comment attribuer des rôles.
-
Créez un Cloud de Confiance projet :
gcloud projects create PROJECT_ID
Remplacez
PROJECT_IDpar le nom du Cloud de Confiance projet que vous créez. -
Sélectionnez le Cloud de Confiance projet que vous avez créé :
gcloud config set project PROJECT_ID
Remplacez
PROJECT_IDpar le nom de votre Cloud de Confiance projet.
-
Vérifiez que la facturation est activée pour votre Cloud de Confiance projet.
Activez l'API GKE :
Rôles requis pour activer les API
Pour activer les API, vous avez besoin du rôle IAM Administrateur d'utilisation du service (
roles/serviceusage.serviceUsageAdmin), qui contient l'serviceusage.services.enableautorisation. Découvrez comment attribuer des rôles.gcloud services enable container.googleapis.com
-
Attribuez des rôles à votre compte utilisateur. Exécutez la commande suivante une fois pour chacun des rôles IAM suivants :
roles/container.admin, roles/compute.networkAdmin, roles/iam.serviceAccountUsergcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
Remplacez les éléments suivants :
PROJECT_ID: ID de votre projetUSER_IDENTIFIER: identifiant de votre compte utilisateur compte. Pour obtenir des exemples, consultez la page Représenter les utilisateurs de pools de personnel dans les stratégies IAM.ROLE: rôle IAM que vous attribuez à votre compte utilisateur
Préparer l'environnement
Dans ce tutoriel, vous utilisez Cloud Shell pour gérer les ressources hébergées sur
Cloud de Confiance by S3NS. Cloud Shell est préinstallé avec les
logiciels dont vous avez besoin dans ce tutoriel, y compris Terraform,
kubectl, et la
la Google Cloud CLI.
Lancez une session Cloud Shell depuis la Cloud de Confiance console en cliquant sur l'icône d'activation Cloud Shell Activer Cloud Shell
. Une session s'ouvre dans le volet inférieur de la Cloud de Confiance console.Les identifiants de service associés à cette machine virtuelle sont automatiques. Vous n'avez donc pas besoin de configurer ni de télécharger une clé de compte de service.
Avant d'exécuter des commandes, définissez votre projet par défaut dans gcloud CLI à l'aide de la commande suivante :
gcloud config set project PROJECT_IDRemplacez
PROJECT_IDpar votre ID de projet.Clonez le dépôt GitHub.
git clone https://github.com/terraform-google-modules/terraform-docs-samples.git --single-branchAccédez au répertoire de travail :
cd terraform-docs-samples/gke/quickstart/autopilot
Examiner les fichiers Terraform
Le Cloud de Confiance by S3NS fournisseur est un plug-in qui vous permet de gérer et de provisionner des Cloud de Confiance ressources à l'aide de Terraform. Il sert de passerelle entre les configurations Terraform et les Cloud de Confiance API, ce qui vous permet de définir de manière déclarative des ressources d'infrastructure, telles que des machines virtuelles et des réseaux.
Le cluster et l'exemple d'application de ce tutoriel sont spécifiés dans deux fichiers Terraform qui utilisent les fournisseurs Cloud de Confiance by S3NS et Kubernetes.
Examinez le fichier
cluster.tf:cat cluster.tfLe résultat ressemble à ce qui suit :
Ce fichier décrit les ressources suivantes :
google_compute_network: réseau VPC avec IPv6 interne activégoogle_compute_subnetwork: sous-réseau à double pilegoogle_container_cluster: cluster en mode Autopilot à double pile situé dansus-central1Le paramètredeletion_protectionindique si vous pouvez utiliser Terraform pour supprimer ce cluster. Si vous définissez la valeur du champdeletion_protectionsurfalse, Terraform peut supprimer le cluster. Pour en savoir plus, consultez lagoogle_container_clusterréférence.
Examinez le fichier
app.tf:cat app.tfLe résultat ressemble à ce qui suit :
Ce fichier décrit les ressources suivantes :
- Un déploiement avec un exemple d'image de conteneur.
- Un service de type LoadBalancer. Le service expose le déploiement sur le port 80.
(Facultatif) Exposer l'application sur Internet
Les fichiers Terraform de l'exemple décrivent une application avec une adresse IP interne, accessible uniquement à partir du même cloud privé virtuel (VPC) que l'exemple d'application. Si vous souhaitez accéder à l'interface Web de l'application de démonstration en cours d'exécution depuis Internet (par exemple, depuis votre ordinateur portable), modifiez les fichiers Terraform pour créer une adresse IP publique à la place avant de créer le cluster. Vous pouvez le faire à l'aide d'un éditeur de texte directement dans Cloud Shell ou à l'aide de l'éditeur Cloud Shell.
Pour exposer l'application de démonstration sur Internet :
Dans
cluster.tf, remplacezipv6_access_typeparEXTERNALau lieu deINTERNAL.ipv6_access_type = "EXTERNAL"Dans
app.tf, configurez un équilibreur de charge externe en supprimant l'networking.gke.io/load-balancer-typeannotation.annotations = { "networking.gke.io/load-balancer-type" = "Internal" # Remove this line }
Créer un cluster et déployer une application
Dans Cloud Shell, exécutez la commande suivante pour vérifier que Terraform est disponible :
terraformLa sortie devrait ressembler à ce qui suit :
Usage: terraform [global options] <subcommand> [args] The available commands for execution are listed below. The primary workflow commands are given first, followed by less common or more advanced commands. Main commands: init Prepare your working directory for other commands validate Check whether the configuration is valid plan Show changes required by the current configuration apply Create or update infrastructure destroy Destroy previously-created infrastructureInitialisez Terraform :
terraform initPlanifiez la configuration Terraform :
terraform planAppliquez la configuration Terraform :
terraform applyLorsque vous y êtes invité, saisissez
yespour confirmer les actions. Cette commande peut prendre plusieurs minutes. Le résultat ressemble à ce qui suit :Apply complete! Resources: 6 added, 0 changed, 0 destroyed.
Vérifier que le cluster fonctionne
Procédez comme suit pour vérifier que votre cluster fonctionne correctement :
Accédez à la page Charges de travail dans la Cloud de Confiance console :
Cliquez sur la charge de travail
example-hello-app-deployment. La page des détails du pod s'affiche. Cette page affiche des informations sur le pod, telles que les annotations, les conteneurs s'exécutant sur le pod, les services exposant le pod, mais aussi les métriques telles que l'utilisation du processeur, de la mémoire et du disque.Accédez à la page Services et entrées dans la Cloud de Confiance console :
Cliquez sur le Service LoadBalancer
example-hello-app-loadbalancer. La page "Informations sur le service" s'affiche. Cette page affiche des informations sur le service, telles que les pods associés et les ports utilisés par les services.Dans la section Points de terminaison externes, cliquez sur lien IPv4 ou lien IPv6 pour afficher votre service dans le navigateur. Le résultat ressemble à ce qui suit :
Hello, world! Version: 2.0.0 Hostname: example-hello-app-deployment-5df979c4fb-kdwgr
Effectuer un nettoyage
Pour éviter que les ressources utilisées dans cette démonstration soient facturées sur votre Cloud de Confiance compte pour les ressources utilisées sur cette page, supprimez le Cloud de Confiance projet qui les contient.
Si vous prévoyez de suivre d'autres tutoriels ou d'explorer davantage votre exemple, attendez d'avoir terminé avant d'effectuer cette étape de nettoyage.
Dans Cloud Shell, exécutez la commande suivante pour supprimer les ressources Terraform :
terraform destroy --auto-approve
Résoudre les erreurs de nettoyage
Si un message d'erreur semblable à The network resource 'projects/PROJECT_ID/global/networks/example-network' is already being used by 'projects/PROJECT_ID/global/firewalls/example-network-yqjlfql57iydmsuzd4ot6n5v' apparaît, procédez comme suit :
Supprimez les règles de pare-feu :
gcloud compute firewall-rules list --filter="NETWORK:example-network" --format="table[no-heading](name)" | xargs gcloud --quiet compute firewall-rules deleteExécutez à nouveau la commande Terraform :
terraform destroy --auto-approve
Étape suivante
Explorez votre cluster et votre charge de travail dans la Cloud de Confiance console pour découvrir certains des paramètres et ressources clés que vous avez déployés.
Pour en savoir plus sur la configuration et l'utilisation de Terraform avec GKE, consultez la section Compatibilité de Terraform avec GKE.
Essayez notre Parcours de formation plus détaillé : Applications évolutives.
Découvrez comment commencer à administrer des clusters dans la Présentation de l'administration de cluster.