Scalabilità automatica pod verticale


Questa pagina spiega come analizzare e ottimizzare l'allocazione delle risorse per migliorare l'efficienza del workload in Google Kubernetes Engine (GKE) utilizzando la scalabilità automatica verticale dei pod. Analizzando l'utilizzo delle risorse del tuo workload nel tempo, puoi ricevere consigli per l'ottimizzazione e regolare automaticamente le richieste e i limiti di CPU e memoria per i container all'interno dei pod.

In questa pagina scopri come funziona la scalabilità automatica pod verticale, i suoi vantaggi e limiti, le best practice per utilizzarla e accedi ai riferimenti API per la risorsa personalizzata VerticalPodAutoscaler e i tipi correlati.

Questa pagina è rivolta a operatori e sviluppatori che eseguono il provisioning e la configurazione delle risorse cloud, il deployment dei carichi di lavoro e la gestione dello scaling delle applicazioni. Per scoprire di più sui ruoli comuni, consulta Ruoli utente e attività comuni di GKE.

Prima di leggere questa pagina, assicurati di avere familiarità con le richieste e i limiti delle risorse in Kubernetes.

Per esigenze di scalabilità rapida in risposta a un utilizzo improvviso delle risorse, utilizza Horizontal Pod Autoscaler.

Per scoprire le best practice per lo scaling automatico, consulta Best practice per l'esecuzione di applicazioni Kubernetes con ottimizzazione dei costi su GKE.

Come funziona la scalabilità automatica pod verticale

La scalabilità automatica pod verticale ti consente di analizzare e impostare le risorse di CPU e memoria richieste dai pod. Anziché dover configurare richieste e limiti di CPU e richieste e limiti di memoria aggiornati per i container nei pod, puoi configurare la scalabilità automatica pod verticale in modo che fornisca valori consigliati per le richieste e i limiti di CPU e memoria che puoi utilizzare per aggiornare manualmente i pod oppure puoi configurare la scalabilità automatica pod verticale in modo che aggiorni automaticamente i valori.

La scalabilità automatica pod verticale è abilitata per impostazione predefinita nei cluster Autopilot.

Scalabilità automatica verticale dei pod in modalità automatica

A causa delle limitazioni di Kubernetes, l'unico modo per modificare le richieste di risorse di un pod in esecuzione è ricrearlo. Se crei un oggetto VerticalPodAutoscaler con un updateMode di Auto, VerticalPodAutoscaler espelle un pod se deve modificare le richieste di risorse del pod.

Per limitare il numero di riavvii dei pod, utilizza un budget di interruzione dei pod. Per assicurarti che il cluster possa gestire le nuove dimensioni dei tuoi carichi di lavoro, utilizza il gestore della scalabilità automatica del cluster e il provisioning automatico dei nodi.

La scalabilità automatica verticale dei pod invia una notifica allo strumento di scalabilità automatica del cluster prima dell'aggiornamento e fornisce le risorse necessarie per il workload ridimensionato prima di ricrearlo, in modo da ridurre al minimo il tempo di interruzione.

Vantaggi

La scalabilità automatica pod verticale offre i seguenti vantaggi:

  • Impostare richieste e limiti di risorse corretti per i tuoi carichi di lavoro migliora la stabilità e l'efficienza in termini di costi. Se le dimensioni delle risorse dei pod sono inferiori a quelle richieste dai tuoi workload, l'applicazione può essere limitata o non funzionare a causa di errori di esaurimento della memoria. Se le dimensioni delle risorse sono troppo grandi, si verificano sprechi e, di conseguenza, le fatture sono più alte.
  • I nodi del cluster vengono utilizzati in modo efficiente perché i pod utilizzano esattamente ciò di cui hanno bisogno.
  • I pod vengono pianificati sui nodi che dispongono delle risorse appropriate.
  • Non devi eseguire attività di benchmarking che richiedono molto tempo per determinare i valori corretti per le richieste di CPU e memoria.
  • Tempi di manutenzione ridotti perché lo strumento di scalabilità automatica può regolare le richieste di CPU e memoria nel tempo senza alcun intervento da parte tua.

La scalabilità automatica verticale dei pod di GKE offre i seguenti vantaggi rispetto al gestore della scalabilità automatica open source di Kubernetes:

  • Tiene conto delle dimensioni massime dei nodi e delle quote delle risorse quando determina la destinazione del consiglio.
  • Notifica al gestore della scalabilità automatica dei cluster di modificare la capacità del cluster.
  • Utilizza i dati storici, fornendo le metriche raccolte prima di attivare il gestore della scalabilità automatica verticale dei pod.
  • Esegue i pod di scalabilità automatica pod verticale come processi del piano di controllo, anziché come deployment sui nodi worker.

Limitazioni

  • Per utilizzare la scalabilità automatica verticale dei pod con la scalabilità automatica orizzontale dei pod, utilizza la scalabilità automatica multidimensionale dei pod. Puoi anche utilizzare la scalabilità automatica verticale dei pod con la scalabilità automatica orizzontale dei pod su metriche personalizzate ed esterne.
  • La scalabilità automatica pod verticale non è pronta per l'uso con i workload basati su JVM a causa della visibilità limitata sull'utilizzo effettivo della memoria del workload.
  • La scalabilità automatica pod verticale ha un'impostazione predefinita di due repliche minime per i deployment per sostituire i pod con valori di risorse rivisti. In GKE versione 1.22 e successive, puoi ignorare questa impostazione specificando un valore per minReplicas nel campo PodUpdatePolicy.

Best practice

  • Per evitare interruzioni degli aggiornamenti del cluster, ti consigliamo di mantenere il numero di oggetti VerticalPodAutoscaler per cluster inferiore a 1000.
  • La scalabilità automatica pod verticale funziona meglio con carichi di lavoro omogenei a lunga esecuzione.

Riferimento API

Questo è il riferimento API v1. Ti consigliamo vivamente di utilizzare questa versione dell'API.

VerticalPodAutoscaler v1 autoscaling.k8s.io

Campi

TypeMeta

Gruppo, versione e tipo di API.

metadata

ObjectMeta

Metadati degli oggetti standard.

spec

VerticalPodAutoscalerSpec

Il comportamento desiderato di VerticalPodAutoscaler.

status

VerticalPodAutoscalerStatus

Lo stato osservato più di recente di VerticalPodAutoscaler.

VerticalPodAutoscalerSpec v1 autoscaling.k8s.io

Campi
targetRef

CrossVersionObjectReference

Riferimento al controller che gestisce il set di pod da controllare per lo scalatore automatico, ad esempio un deployment o un StatefulSet. Puoi puntare un VerticalPodAutoscaler a qualsiasi controller che abbia una risorsa secondaria Scale. In genere, VerticalPodAutoscaler recupera il set di pod da ScaleStatus del controller. Per alcuni controller noti, ad esempio DaemonSet, VerticalPodAutoscaler recupera il set di pod dalla specifica del controller.

updatePolicy

PodUpdatePolicy

Specifica se gli aggiornamenti consigliati vengono applicati all'avvio di un pod e se vengono applicati durante il ciclo di vita di un pod.

resourcePolicy

PodResourcePolicy

Specifica i criteri per la modalità di aggiustamento delle richieste di CPU e memoria per i singoli container. Il criterio delle risorse può essere utilizzato per impostare vincoli sui consigli per i singoli container. Se non specificato, il gestore della scalabilità automatica calcola le risorse consigliate per tutti i container nel pod, senza vincoli aggiuntivi.

recommenders

VerticalPodAutoscalerRecommenderSelector array

Motore per suggerimenti responsabile della generazione del suggerimento per questo oggetto VPA. Lascia vuoto per utilizzare il suggerimento predefinito fornito da GKE. In caso contrario, l'elenco può contenere esattamente una voce per un sistema di raccomandazione alternativo fornito dall'utente. Supportato a partire da GKE 1.22.

VerticalPodAutoscalerList v1 autoscaling.k8s.io

Campi

TypeMeta

Gruppo, versione e tipo di API.

metadata

ObjectMeta

Metadati degli oggetti standard.

items

VerticalPodAutoscaler array

Un elenco di VerticalPodAutoscaler oggetti.

PodUpdatePolicy v1 autoscaling.k8s.io

Campi
updateMode

string

Specifica se gli aggiornamenti consigliati vengono applicati all'avvio di un pod e se vengono applicati durante il ciclo di vita di un pod. I valori possibili sono "Off", "Initial", "Recreate" e "Auto". Se non specifichi un valore, il valore predefinito è "Auto".

minReplicas

int32

Il numero minimo di repliche che devono essere attive per tentare l'eliminazione del pod (in attesa di altri controlli come il budget di interruzione dei pod). Sono consentiti solo valori positivi. Il valore predefinito è 2. Supportato a partire da GKE 1.22.

PodResourcePolicy v1 autoscaling.k8s.io

Campi
containerPolicies

ContainerResourcePolicy array

Un array di criteri delle risorse per i singoli container. Può essere presente al massimo una voce per ogni container denominato e, facoltativamente, una singola voce jolly con `containerName = '*'`, che gestisce tutti i container che non hanno policy individuali.

ContainerResourcePolicy v1 autoscaling.k8s.io

Campi
containerName

string

Il nome del contenitore a cui si applica la norma. Se non specificato, il criterio funge da criterio predefinito.

mode

ContainerScalingMode

Specifica se gli aggiornamenti consigliati vengono applicati al container all'avvio e se vengono applicati durante il ciclo di vita del container. I valori possibili sono "Off" e "Auto". Se non specifichi un valore, il valore predefinito è "Auto".

minAllowed

ResourceList

Specifica la richiesta minima di CPU e memoria consentita per il container. Per impostazione predefinita, non viene applicato alcun minimo.

maxAllowed

ResourceList

Specifica la richiesta massima di CPU e memoria consentita per il container. Per impostazione predefinita, non viene applicato alcun limite massimo.

ControlledResources

[]ResourceName

Specifica il tipo di consigli che verranno calcolati (e possibilmente applicati) da VerticalPodAutoscaler. Se è vuoto, viene utilizzato il valore predefinito di [ResourceCPU, ResourceMemory].

VerticalPodAutoscalerRecommenderSelector v1 autoscaling.k8s.io

Campi
name

string

Nome del sistema di raccomandazione responsabile della generazione del consiglio per questo oggetto.

VerticalPodAutoscalerStatus v1 autoscaling.k8s.io

Campi
recommendation

RecommendedPodResources

Le richieste di CPU e memoria consigliate più di recente.

conditions

VerticalPodAutoscalerCondition array

Descrive lo stato attuale di VerticalPodAutoscaler.

RecommendedPodResources v1 autoscaling.k8s.io

Campi
containerRecommendation

RecommendedContainerResources array

Un array di consigli sulle risorse per i singoli container.

RecommendedContainerResources v1 autoscaling.k8s.io

Campi
containerName

string

Il nome del contenitore a cui si applica il consiglio.

target

ResourceList

La richiesta di CPU e la richiesta di memoria consigliate per il container.

lowerBound

ResourceList

La richiesta minima consigliata di CPU e memoria per il container. Non è garantito che questo importo sia sufficiente per la stabilità dell'applicazione. L'esecuzione con richieste di CPU e memoria più piccole probabilmente avrà un impatto significativo sulle prestazioni o sulla disponibilità.

upperBound

ResourceList

La richiesta di CPU e memoria massima consigliata per il container. È probabile che le richieste di CPU e memoria superiori a questi valori vengano sprecate.

uncappedTarget

ResourceList

Il suggerimento più recente per le risorse calcolato dal gestore della scalabilità automatica, in base all'utilizzo effettivo delle risorse, senza tenere conto di ContainerResourcePolicy. Se l'utilizzo effettivo delle risorse fa sì che il target violi la ContainerResourcePolicy, questo potrebbe essere diverso dal consiglio vincolato. Questo campo non influisce sull'assegnazione effettiva delle risorse. Viene utilizzato solo come indicatore di stato.

VerticalPodAutoscalerCondition v1 autoscaling.k8s.io

Campi
type

VerticalPodAutoscalerConditionType

Il tipo di condizione descritta. I valori possibili sono "RecommendationProvided", "LowConfidence", "NoPodsMatched" e "FetchingHistory".

status

ConditionStatus

Lo stato della condizione. I valori possibili sono True, False e Unknown.

lastTransitionTime

Time

L'ultima volta che la condizione è passata da uno stato all'altro.

reason

string

Il motivo dell'ultima transizione da uno stato all'altro.

message

string

Una stringa leggibile che fornisce dettagli sull'ultima transizione da uno stato all'altro.

Passaggi successivi