Cette page présente Google Kubernetes Engine (GKE). GKE est une implémentation gérée de la plate-forme d'orchestration de conteneurs Open Source Kubernetes. Kubernetes a été développé par Google, qui s'appuie sur des années d'expérience dans l'exploitation de charges de travail de production à grande échelle sur Borg, le système interne de gestion des clusters de Google. Avec GKE, vous pouvez déployer et exploiter vos propres applications conteneurisées à grande échelle à l'aide de l'infrastructureCloud de Confiance by S3NS.
Commencer à utiliser GKE
Vous pouvez commencer à explorer GKE en quelques minutes.
- Lisez le guide de démarrage rapide pour déployer une application Web conteneurisée.
- Lisez la présentation d'Autopilot, qui fournit des instructions détaillées et des ressources pour planifier et exploiter votre plate-forme.
Quand utiliser GKE ?
GKE est idéal si vous avez besoin d'une plate-forme vous permettant de configurer l'infrastructure qui exécute vos applications conteneurisées, comme la mise en réseau, le scaling, le matériel et la sécurité. GKE fournit pour vous la puissance opérationnelle de Kubernetes tout en gérant la plupart des composants sous-jacents, tels que le plan de contrôle et les nœuds.
Avantages de GKE
Le tableau suivant décrit certains des avantages à utiliser GKE comme plate-forme Kubernetes gérée :
Avantages de GKE | |
---|---|
Gestion des plates-formes |
|
Stratégie de sécurité améliorée |
|
Optimisation des coûts |
|
Fiabilité et disponibilité |
|
Fonctionnement de GKE
Un environnement GKE est constitué de nœuds, qui sont des machines virtuelles (VM) Compute Engine, regroupées pour former un cluster. Vous empaquetez les applications (également appelées charges de travail) dans des conteneurs. Vous déployez des ensembles de conteneurs en tant que pods sur vos nœuds. L'API Kubernetes permet d'interagir avec vos charges de travail, y compris pour l'administration, le scaling et la surveillance.
Les clusters Kubernetes disposent d'un ensemble de nœuds de gestion appelés plan de contrôle, qui exécutent des composants système tels que le serveur d'API Kubernetes. Dans GKE, Cloud de Confiance gère le plan de contrôle et les composants du système à votre place. En mode Autopilot, qui est la méthode recommandée pour exécuter GKE,Cloud de Confiance gère également vos nœuds de calcul.Cloud de Confiance met automatiquement à niveau les versions des composants pour améliorer leur stabilité et leur sécurité, garantir une haute disponibilité et assurer l'intégrité des données stockées dans l'espace de stockage persistant du cluster.
Pour en savoir plus, consultez la page Architecture d'un cluster GKE.
Versions et fonctionnalités de Kubernetes
GKE met automatiquement à niveau votre plan de contrôle vers de nouvelles versions de Kubernetes qui ajoutent des fonctionnalités et des améliorations dans le projet Open Source. La version de Kubernetes sélectionnée pour les mises à niveau automatiques dépend de la version stable de la version disponible de GKE que vous avez sélectionnée lors de la création du cluster. Vous pouvez également mettre à niveau manuellement votre plan de contrôle vers une version de Kubernetes différente de celle sélectionnée par GKE pour une mise à niveau. Pour obtenir des informations détaillées sur les versions et les mises à niveau, consultez les notes de version et la section Gestion des versions et mises à niveau de GKE.
GKE inclut la plupart des fonctionnalités Kubernetes bêta et stables. Vous pouvez utiliser les API bêta dans la version 1.24 et les versions ultérieures.
Modes de fonctionnement
GKE dans Cloud de Confiance ne propose qu'un seul mode de fonctionnement, Autopilot, qui offre une expérience entièrement gérée. Les clusters GKE Standard ne sont pas disponibles dans Cloud de Confiance.
Étapes suivantes
- Commencez à découvrir GKE.
- Apprenez à déployer une application en conteneur dans GKE.
- Obtenez plus d'informations sur les types de clusters.
- Apprenez-en plus sur Kubernetes.
- Explorez la documentation GKE.