Questa pagina spiega come analizzare e ottimizzare l'allocazione delle risorse per migliorare l'efficienza del workload in Google Kubernetes Engine (GKE) utilizzando la scalabilità automatica verticale dei pod. Analizzando l'utilizzo delle risorse del tuo workload nel tempo, puoi ricevere consigli per l'ottimizzazione e regolare automaticamente le richieste e i limiti di CPU e memoria per i container all'interno dei pod.
In questa pagina scopri come funziona la scalabilità automatica pod verticale, i suoi vantaggi e limiti, le best practice per utilizzarla e accedi ai riferimenti API per la risorsa personalizzata VerticalPodAutoscaler
e i tipi correlati.
Questa pagina è rivolta a operatori e sviluppatori che eseguono il provisioning e la configurazione delle risorse cloud, il deployment dei carichi di lavoro e la gestione dello scaling delle applicazioni. Per scoprire di più sui ruoli comuni, consulta Ruoli utente e attività comuni di GKE.
Prima di leggere questa pagina, assicurati di avere familiarità con le richieste e i limiti delle risorse in Kubernetes.
Per esigenze di scalabilità rapida in risposta a un utilizzo improvviso delle risorse, utilizza Horizontal Pod Autoscaler.
Per scoprire le best practice per lo scaling automatico, consulta Best practice per l'esecuzione di applicazioni Kubernetes con ottimizzazione dei costi su GKE.
Come funziona la scalabilità automatica pod verticale
La scalabilità automatica pod verticale ti consente di analizzare e impostare le risorse di CPU e memoria richieste dai pod. Anziché dover configurare richieste e limiti di CPU e richieste e limiti di memoria aggiornati per i container nei pod, puoi configurare la scalabilità automatica pod verticale in modo che fornisca valori consigliati per le richieste e i limiti di CPU e memoria che puoi utilizzare per aggiornare manualmente i pod oppure puoi configurare la scalabilità automatica pod verticale in modo che aggiorni automaticamente i valori.
La scalabilità automatica pod verticale è abilitata per impostazione predefinita nei cluster Autopilot.
Scalabilità automatica verticale dei pod in modalità automatica
A causa delle limitazioni di Kubernetes, l'unico modo per modificare le richieste di risorse di un pod in esecuzione è ricrearlo. Se crei un oggetto VerticalPodAutoscaler
con un updateMode
di Auto
, VerticalPodAutoscaler
espelle un pod
se deve modificare le richieste di risorse del pod.
Per limitare il numero di riavvii dei pod, utilizza un budget di interruzione dei pod. Per assicurarti che il cluster possa gestire le nuove dimensioni dei tuoi carichi di lavoro, utilizza il gestore della scalabilità automatica del cluster e il provisioning automatico dei nodi.
La scalabilità automatica verticale dei pod invia una notifica allo strumento di scalabilità automatica del cluster prima dell'aggiornamento e fornisce le risorse necessarie per il workload ridimensionato prima di ricrearlo, in modo da ridurre al minimo il tempo di interruzione.
Vantaggi
La scalabilità automatica pod verticale offre i seguenti vantaggi:
- Impostare richieste e limiti di risorse corretti per i tuoi carichi di lavoro migliora la stabilità e l'efficienza in termini di costi. Se le dimensioni delle risorse dei pod sono inferiori a quelle richieste dai tuoi workload, l'applicazione può essere limitata o non funzionare a causa di errori di esaurimento della memoria. Se le dimensioni delle risorse sono troppo grandi, si verificano sprechi e, di conseguenza, le fatture sono più alte.
- I nodi del cluster vengono utilizzati in modo efficiente perché i pod utilizzano esattamente ciò di cui hanno bisogno.
- I pod vengono pianificati sui nodi che dispongono delle risorse appropriate.
- Non devi eseguire attività di benchmarking che richiedono molto tempo per determinare i valori corretti per le richieste di CPU e memoria.
- Tempi di manutenzione ridotti perché lo strumento di scalabilità automatica può regolare le richieste di CPU e memoria nel tempo senza alcun intervento da parte tua.
La scalabilità automatica verticale dei pod di GKE offre i seguenti vantaggi rispetto al gestore della scalabilità automatica open source di Kubernetes:
- Tiene conto delle dimensioni massime dei nodi e delle quote delle risorse quando determina la destinazione del consiglio.
- Notifica al gestore della scalabilità automatica dei cluster di modificare la capacità del cluster.
- Utilizza i dati storici, fornendo le metriche raccolte prima di attivare il gestore della scalabilità automatica verticale dei pod.
- Esegue i pod di scalabilità automatica pod verticale come processi del piano di controllo, anziché come deployment sui nodi worker.
Limitazioni
- Per utilizzare la scalabilità automatica verticale dei pod con la scalabilità automatica orizzontale dei pod, utilizza la scalabilità automatica multidimensionale dei pod. Puoi anche utilizzare la scalabilità automatica verticale dei pod con la scalabilità automatica orizzontale dei pod su metriche personalizzate ed esterne.
- La scalabilità automatica pod verticale non è pronta per l'uso con i workload basati su JVM a causa della visibilità limitata sull'utilizzo effettivo della memoria del workload.
- La scalabilità automatica pod verticale ha un'impostazione predefinita di due repliche minime per
i deployment per sostituire i pod con valori di risorse rivisti. In
GKE versione 1.22 e successive, puoi ignorare questa impostazione
specificando un valore per
minReplicas
nel campo PodUpdatePolicy.
Best practice
- Per evitare interruzioni degli aggiornamenti del cluster, ti consigliamo di mantenere il numero
di oggetti
VerticalPodAutoscaler
per cluster inferiore a 1000. - La scalabilità automatica pod verticale funziona meglio con carichi di lavoro omogenei a lunga esecuzione.
Riferimento API
Questo è il riferimento API v1
. Ti consigliamo vivamente di utilizzare questa versione dell'API.
VerticalPodAutoscaler v1 autoscaling.k8s.io
Campi | |
---|---|
|
Gruppo, versione e tipo di API. |
metadata |
Metadati degli oggetti standard. |
spec |
Il comportamento desiderato di |
status |
Lo stato osservato più di recente di |
VerticalPodAutoscalerSpec v1 autoscaling.k8s.io
Campi | |
---|---|
targetRef |
Riferimento al controller che gestisce il set di pod da controllare per lo scalatore automatico, ad esempio un deployment o un StatefulSet.
Puoi puntare un |
updatePolicy |
Specifica se gli aggiornamenti consigliati vengono applicati all'avvio di un pod e se vengono applicati durante il ciclo di vita di un pod. |
resourcePolicy |
Specifica i criteri per la modalità di aggiustamento delle richieste di CPU e memoria per i singoli container. Il criterio delle risorse può essere utilizzato per impostare vincoli sui consigli per i singoli container. Se non specificato, il gestore della scalabilità automatica calcola le risorse consigliate per tutti i container nel pod, senza vincoli aggiuntivi. |
recommenders |
Motore per suggerimenti responsabile della generazione del suggerimento per questo oggetto VPA. Lascia vuoto per utilizzare il suggerimento predefinito fornito da GKE. In caso contrario, l'elenco può contenere esattamente una voce per un sistema di raccomandazione alternativo fornito dall'utente. Supportato a partire da GKE 1.22. |
VerticalPodAutoscalerList v1 autoscaling.k8s.io
Campi | |
---|---|
|
Gruppo, versione e tipo di API. |
metadata |
Metadati degli oggetti standard. |
items |
Un elenco di |
PodUpdatePolicy v1 autoscaling.k8s.io
Campi | |
---|---|
updateMode |
Specifica se gli aggiornamenti consigliati vengono applicati all'avvio di un pod e se vengono applicati durante il ciclo di vita di un pod. I valori possibili sono "Off", "Initial", "Recreate" e "Auto". Se non specifichi un valore, il valore predefinito è "Auto". |
minReplicas |
Il numero minimo di repliche che devono essere attive per
tentare l'eliminazione del pod (in attesa di altri controlli come il budget di interruzione dei pod).
Sono consentiti solo valori positivi. Il valore predefinito è |
PodResourcePolicy v1 autoscaling.k8s.io
Campi | |
---|---|
containerPolicies |
Un array di criteri delle risorse per i singoli container. Può essere presente al massimo una voce per ogni container denominato e, facoltativamente, una singola voce jolly con `containerName = '*'`, che gestisce tutti i container che non hanno policy individuali. |
ContainerResourcePolicy v1 autoscaling.k8s.io
Campi | |
---|---|
containerName |
Il nome del contenitore a cui si applica la norma. Se non specificato, il criterio funge da criterio predefinito. |
mode |
Specifica se gli aggiornamenti consigliati vengono applicati al container all'avvio e se vengono applicati durante il ciclo di vita del container. I valori possibili sono "Off" e "Auto". Se non specifichi un valore, il valore predefinito è "Auto". |
minAllowed |
Specifica la richiesta minima di CPU e memoria consentita per il container. Per impostazione predefinita, non viene applicato alcun minimo. |
maxAllowed |
Specifica la richiesta massima di CPU e memoria consentita per il container. Per impostazione predefinita, non viene applicato alcun limite massimo. |
ControlledResources |
Specifica il tipo di consigli che verranno calcolati (e
possibilmente applicati) da |
VerticalPodAutoscalerRecommenderSelector v1 autoscaling.k8s.io
Campi | |
---|---|
name |
Nome del sistema di raccomandazione responsabile della generazione del consiglio per questo oggetto. |
VerticalPodAutoscalerStatus v1 autoscaling.k8s.io
Campi | |
---|---|
recommendation |
Le richieste di CPU e memoria consigliate più di recente. |
conditions |
Descrive lo stato attuale di |
RecommendedPodResources v1 autoscaling.k8s.io
Campi | |
---|---|
containerRecommendation |
Un array di consigli sulle risorse per i singoli container. |
RecommendedContainerResources v1 autoscaling.k8s.io
Campi | |
---|---|
containerName |
Il nome del contenitore a cui si applica il consiglio. |
target |
La richiesta di CPU e la richiesta di memoria consigliate per il container. |
lowerBound |
La richiesta minima consigliata di CPU e memoria per il container. Non è garantito che questo importo sia sufficiente per la stabilità dell'applicazione. L'esecuzione con richieste di CPU e memoria più piccole probabilmente avrà un impatto significativo sulle prestazioni o sulla disponibilità. |
upperBound |
La richiesta di CPU e memoria massima consigliata per il container. È probabile che le richieste di CPU e memoria superiori a questi valori vengano sprecate. |
uncappedTarget |
Il suggerimento più recente per le risorse calcolato dal gestore della scalabilità automatica, in base all'utilizzo effettivo delle risorse, senza tenere conto di ContainerResourcePolicy. Se l'utilizzo effettivo delle risorse fa sì che il target violi la ContainerResourcePolicy, questo potrebbe essere diverso dal consiglio vincolato. Questo campo non influisce sull'assegnazione effettiva delle risorse. Viene utilizzato solo come indicatore di stato. |
VerticalPodAutoscalerCondition v1 autoscaling.k8s.io
Campi | |
---|---|
type |
Il tipo di condizione descritta. I valori possibili sono "RecommendationProvided", "LowConfidence", "NoPodsMatched" e "FetchingHistory". |
status |
Lo stato della condizione. I valori possibili sono True, False e Unknown. |
lastTransitionTime |
L'ultima volta che la condizione è passata da uno stato all'altro. |
reason |
Il motivo dell'ultima transizione da uno stato all'altro. |
message |
Una stringa leggibile che fornisce dettagli sull'ultima transizione da uno stato all'altro. |
Passaggi successivi
- Scopri come scalare le richieste e i limiti delle risorse dei container.
- Scopri le best practice per l'esecuzione di applicazioni Kubernetes con ottimizzazione dei costi su GKE.
- Scopri di più sul gestore della scalabilità automatica dei cluster.