Pedidos de recursos no piloto automático

Para melhorar a estabilidade da carga de trabalho, o modo Autopilot do Google Kubernetes Engine (GKE) gere os valores dos pedidos de recursos de pods, como CPU, memória ou armazenamento efémero. Esta página inclui as seguintes informações, que pode usar para planear cargas de trabalho eficientes, estáveis e rentáveis:

  • Valores predefinidos que o Autopilot aplica aos pods que não especificam valores.
  • Valores mínimos e máximos que o Autopilot aplica aos pedidos de recursos.
  • Como os valores predefinidos, mínimos e máximos variam com base no hardware que os seus Pods pedem.

Esta página destina-se a operadores e programadores que preparam e configuram recursos na nuvem, e implementam cargas de trabalho. Para saber mais sobre as funções comuns e as tarefas de exemplo que referimos no Trusted Cloud by S3NS conteúdo, consulteFunções e tarefas comuns do utilizador do GKE.

Já deve estar familiarizado com a gestão de recursos do Kubernetes.

Vista geral dos pedidos de recursos no piloto automático

O Autopilot usa os pedidos de recursos que especifica na configuração da carga de trabalho para configurar os nós que executam as cargas de trabalho. O modo automático aplica pedidos de recursos mínimos e máximos com base na classe de computação ou na configuração de hardware que as suas cargas de trabalho usam. Se não especificar pedidos para alguns contentores, o Autopilot atribui valores predefinidos para permitir que esses contentores sejam executados corretamente.

Quando implementa uma carga de trabalho num cluster do Autopilot, o GKE valida a configuração da carga de trabalho em relação aos valores mínimos e máximos permitidos para a classe de computação selecionada ou a configuração de hardware (como GPUs). Se os seus pedidos forem inferiores ao mínimo, o Autopilot modifica automaticamente a configuração da carga de trabalho para colocar os pedidos dentro do intervalo permitido. Se os seus pedidos forem superiores ao máximo, o Autopilot rejeita a sua carga de trabalho e apresenta uma mensagem de erro.

A lista seguinte resume as categorias de pedidos de recursos:

  • Pedidos de recursos predefinidos: o Autopilot adiciona-os se não especificar os seus próprios pedidos para cargas de trabalho
  • Pedidos de recursos mínimos e máximos: o Autopilot valida os pedidos especificados para garantir que estão dentro destes limites. Se os seus pedidos estiverem fora dos limites, o Autopilot modifica os pedidos da carga de trabalho.
  • Separação da carga de trabalho e pedidos de duração prolongada: o Autopilot tem valores predefinidos diferentes e valores mínimos diferentes para cargas de trabalho que separam umas das outras ou para pods que recebem proteção prolongada contra despejo iniciado pelo GKE.
  • Pedidos de recursos para DaemonSets: o Autopilot tem valores predefinidos, mínimos e máximos diferentes para contentores em DaemonSets.

Como pedir recursos

No Autopilot, pede recursos na especificação do pod. Os recursos mínimos e máximos suportados que pode pedir variam consoante a configuração de hardware do nó no qual os pods são executados. Para saber como pedir configurações de hardware específicas, consulte as seguintes páginas:

Pedidos de recursos predefinidos

Se não especificar pedidos de recursos para alguns contentores num pod, o Autopilot aplica valores predefinidos. Estas predefinições são adequadas para muitas cargas de trabalho mais pequenas.

Além disso, o Autopilot aplica os seguintes pedidos de recursos predefinidos, independentemente da classe de computação ou da configuração de hardware selecionada:

  • Contentores em DaemonSets

    • CPU: 50 mCPU
    • Memória: 100 MiB
    • Armazenamento temporário: 100 MiB
  • Todos os outros contentores

    • Armazenamento temporário: 1 GiB

Para mais informações sobre os limites dos clusters do Autopilot, consulte o artigo Quotas e limites.

Pedidos predefinidos para classes de computação

O Autopilot aplica os seguintes valores predefinidos aos recursos que não estão definidos na especificação do pod para pods que são executados em classes de computação. Se definir apenas um dos pedidos e deixar o outro em branco, o GKE usa a proporção CPU:memória definida na secção Pedidos mínimos e máximos para definir o pedido em falta para um valor que esteja em conformidade com a proporção.

Classe de computação Recurso Pedido predefinido
Utilização geral (predefinição) CPU 0,5 vCPU
Memória 2 GiB
Accelerator Não foram aplicados pedidos predefinidos.
Equilibrado CPU 0,5 vCPU
Memória 2 GiB
Desempenho Não foram aplicados pedidos predefinidos.
Aumentar nós CPU 0,5 vCPU
Memória 2 GiB

Pedidos de recursos mínimos e máximos

Os recursos totais pedidos pela configuração da implementação devem estar dentro dos valores mínimo e máximo suportados permitidos pelo Autopilot. Aplicam-se as seguintes condições:

  • Pedidos de armazenamento temporário:

    • O armazenamento efémero usa o disco de arranque da VM, a menos que os seus nós tenham SSDs locais anexados.

      O hardware de computação que inclui SSDs locais, como GPUs A100 (80 GB), GPUs H100 (80 GB) ou a série de máquinas Z3, suporta um máximo de pedidos igual ao tamanho do SSD local menos qualquer sobrecarga do sistema. Para obter informações sobre esta sobrecarga do sistema, consulte o artigo Armazenamento efémero suportado por SSDs locais.

    • Na versão 1.29.3-gke.1038000 e posteriores do GKE, os pods da classe de desempenho e os pods do acelerador de hardware suportam um pedido de armazenamento efémero máximo de 56 TiB, a menos que o hardware inclua SSDs locais.

      Em todos os outros pods do Autopilot, independentemente da versão do GKE, o pedido de armazenamento efémero total em todos os contentores no pod tem de estar entre 10 MiB e 10 GiB, salvo especificação em contrário.

    • Para volumes maiores, use volumes efémeros genéricos, que oferecem funcionalidade e desempenho equivalentes ao armazenamento efémero, mas com significativamente mais flexibilidade, uma vez que podem ser usados com qualquer opção de armazenamento do GKE. Por exemplo, o tamanho máximo de um volume efémero genérico que usa o pd-balanced é de 64 TiB.

  • Para pods DaemonSet, os pedidos de recursos mínimos são os seguintes:

    • Clusters que suportam o modo Burst: 1 mCPU por pod, 2 MiB de memória por pod e 10 MiB de armazenamento efémero por contentor no pod.
    • Clusters que não suportam o aumento rápido: 10 mCPU por pod, 10 MiB de memória por pod e 10 MiB de armazenamento efémero por contentor no pod.

    Para verificar se o seu cluster suporta o aumento temporário, consulte o artigo Disponibilidade do aumento temporário no GKE.

  • Se o cluster suportar o aumento rápido, o Autopilot não aplica incrementos de 0,25 vCPU aos pedidos de CPU dos seus pods. Se o seu cluster não suportar o aumento rápido, o Autopilot arredonda os seus pedidos de CPU para o número mais próximo de 0,25 vCPU. Para verificar se o seu cluster suporta o aumento rápido, consulte a disponibilidade do aumento rápido no GKE.

  • A relação CPU:memória tem de estar dentro do intervalo permitido para a classe de computação ou a configuração de hardware selecionada. Se a relação CPU:memória estiver fora do intervalo permitido, o Autopilot aumenta automaticamente o recurso mais pequeno. Por exemplo, se pedir 1 vCPU e 16 GiB de memória (proporção de 1:16) para pods em execução na classe Scale-Out, o Autopilot aumenta o pedido de CPU para 4 vCPUs, o que altera a proporção para 1:4.

Valores mínimos e máximos para classes de computação

A tabela seguinte descreve a proporção mínima, máxima e permitida de CPU para memória para cada classe de computação suportada pelo Autopilot:

Classe de computação Rácio CPU:memória (vCPU:GiB) Recurso Mínimo Máximo
Utilização geral (predefinição) Entre 1:1 e 1:6,5 CPU

O valor depende de o cluster suportar ou não o aumento temporário, da seguinte forma:

  • Clusters que suportam o modo Burst: 50 m de CPU
  • Clusters que não suportam o modo Burst: 250 m de CPU

Para verificar se o seu cluster suporta o aumento rápido, consulte o artigo Disponibilidade do aumento rápido no GKE.

30 vCPU
Memória

O valor depende de o cluster suportar ou não o aumento temporário, da seguinte forma:

  • Clusters que suportam picos de utilização: 52 MiB
  • Clusters que não suportam o aumento rápido: 512 MiB

Para verificar se o seu cluster suporta o aumento rápido, consulte o artigo Disponibilidade do aumento rápido no GKE.

110 GiB
Accelerator Consulte o artigo Valores mínimos e máximos para aceleradores
Equilibrado Entre 1:1 e 1:8 CPU 0,25 vCPU

222 vCPU

Se plataforma mínima da CPU selecionada:

  • Plataformas Intel: 126 vCPU
  • Plataformas AMD: 222 vCPU
Memória 0,5 GiB

851 GiB

Se plataforma mínima da CPU selecionada:

  • Plataformas Intel: 823 GiB
  • Plataformas AMD: 851 GiB
Desempenho N/A CPU Não são aplicados requisitos mínimos de pedidos
  • Série de máquinas C2: 58 vCPU
  • Série de máquinas C2D: 110 vCPU
  • Série de máquinas C3: 174 vCPU
  • Série de máquinas C3 com SSD local: 174 vCPU
  • Série de máquinas C3D: 358 vCPU
  • Série de máquinas C3D com SSD local: 358 vCPU
  • Série de máquinas C4D (1.33.0-gke.1439000 ou posterior): 382 vCPU
  • Série de máquinas C4D com SSD local (1.33.1-gke.1171000 ou posterior): 382 vCPU
  • Série de máquinas H3: 86 vCPU
  • Série de máquinas H4D (1.33.2-gke.4731000 ou posterior): 192 vCPU
  • Série de máquinas T2A: 46 vCPU
  • Série de máquinas T2D: 58 vCPU
  • Série de máquinas C4: 286 vCPU
  • Série de máquinas M4 (1.33.4-gke.1013000 ou posterior): 224 vCPU
  • Série de máquinas N4: 78 vCPU
  • Série de máquinas Z3: 174 vCPU
Memória Não são aplicados requisitos mínimos de pedidos
  • Série de máquinas C2: 218 GiB
  • Série de máquinas C2D: 835 GiB
  • Série de máquinas C3: 1345 GiB
  • Série de máquinas C3 com SSD local: 670 GiB
  • Série de máquinas C3D: 2750 GiB
  • Série de máquinas C3D com SSD local: 1375 GiB
  • Série de máquinas C4D (1.33.0-gke.1439000 ou posterior): 2905 GiB
  • Série de máquinas C4D com SSD local (1.33.1-gke.1171000 ou posterior): 2905 GiB
  • Série de máquinas H3: 330 GiB
  • Série de máquinas H4D (1.33.2-gke.4731000 ou posterior): 1400 GiB
  • Série de máquinas T2A: 172 GiB
  • Série de máquinas T2D: 218 GiB
  • Série de máquinas C4: 2140 GiB
  • Série de máquinas M4 (1.33.4-gke.1013000 ou posterior): 5952 GiB
  • Série de máquinas N4: 600 GiB
  • Série de máquinas Z3: 34 000 GiB
Armazenamento temporário Não são aplicados requisitos mínimos de pedidos
  • Série de máquinas C2: 56 TiB
  • Série de máquinas C2D: 56 TiB
  • Série de máquinas C3: 56 TiB
  • Série de máquinas C3 com SSD local: 10 000 GiB
  • Série de máquinas C3D: 56 TiB
  • Série de máquinas C3D com SSD local: 10 000 GiB
  • Série de máquinas C4D (1.33.0-gke.1439000 ou posterior): 56 TiB
  • Série de máquinas C4D com SSD local (1.33.1-gke.1171000 ou posterior): 10 000 GiB
  • Série de máquinas H3: 56 TiB
  • Série de máquinas H4D (1.33.2-gke.4731000 ou posterior): 56 Ti
  • Série de máquinas T2A: 56 TiB
  • Série de máquinas T2D: 56 TiB
  • Série de máquinas C4: 56 TiB
  • Série de máquinas M4 (1.33.4-gke.1013000 ou posterior): 56 TiB
  • Série de máquinas N4: 56 TiB
  • Série de máquinas Z3: 34 000 GiB
Aumentar nós Exatamente 1:4 CPU 0,25 vCPU
  • arm64: 43 vCPU
  • amd64: 54 vCPU
Memória 1 GiB
  • arm64: 172 GiB
  • amd64: 216 GiB

Para saber como pedir classes de computação nos seus pods do Autopilot, consulte o artigo Escolha classes de computação para pods do Autopilot.

Valores mínimos e máximos para aceleradores

O GKE não aplica pedidos mínimos de CPU, memória ou armazenamento efémero para pods que usam aceleradores. A tabela seguinte descreve os pedidos máximos para cada um destes recursos com base no número e no tipo de acelerador que usa.

Salvo especificação em contrário, o armazenamento efémero máximo suportado é de 56 TiB.

Tipo de acelerador Recurso Máximo
NVIDIA B200
nvidia-B200
CPU
  • 8 GPUs: 224 vCPUs
Memória
  • 8 GPUs: 3968 GiB
Armazenamento temporário
  • 8 GPUs: 10 TiB
NVIDIA H200 (141GB)
nvidia-h200-141gb
CPU
  • 8 GPUs: 224 vCPUs
Memória
  • 8 GPUs: 2952 GiB
Armazenamento temporário
  • 8 GPUs: 10 TiB (1.32.2-gke.1182000 ou posterior)
  • 8 GPUs: 2540 GiB (anterior à versão 1.32.2-gke.1182000)
NVIDIA H100 Mega (80GB)
nvidia-h100-mega-80gb
CPU
  • 8 GPUs: 206 vCPUs
Memória
  • 8 GPUs: 1795 GiB
Armazenamento temporário
  • 8 GPUs: 5250 GiB
NVIDIA H100 (80GB)
nvidia-h100-80gb
CPU
  • 8 GPUs: 206 vCPUs
Memória
  • 8 GPUs: 1795 GiB
Armazenamento temporário
  • 8 GPUs: 5250 GiB
NVIDIA A100 (40GB)
nvidia-tesla-a100
CPU
  • 1 GPU: 11 vCPU
  • 2 GPUs: 22 vCPUs
  • 4 GPUs: 46 vCPUs
  • 8 GPUs: 94 vCPU
  • 16 GPUs: 94 vCPUs

A soma dos pedidos de CPU de todos os DaemonSets executados num nó de GPU A100 não pode exceder 2 vCPU.

Memória
  • 1 GPU: 74 GiB
  • 2 GPUs: 148 GiB
  • 4 GPUs: 310 GiB
  • 8 GPUs: 632 GiB
  • 16 GPUs: 1264 GiB

A soma dos pedidos de memória de todos os DaemonSets executados num nó de GPU A100 não pode exceder 14 GiB.

NVIDIA A100 (80GB)
nvidia-a100-80gb
CPU
  • 1 GPU: 11 vCPU
  • 2 GPUs: 22 vCPUs
  • 4 GPUs: 46 vCPUs
  • 8 GPUs: 94 vCPU

A soma dos pedidos de CPU de todos os DaemonSets que são executados num nó de GPU A100 (80 GB) não pode exceder 2 vCPUs.

Memória
  • 1 GPU: 148 GiB
  • 2 GPUs: 310 GiB
  • 4 GPUs: 632 GiB
  • 8 GPUs: 1264 GiB

A soma dos pedidos de memória de todos os DaemonSets executados num nó de GPU A100 (80 GB) não pode exceder 14 GiB.

Armazenamento temporário
  • 1 GPU: 280 GiB
  • 2 GPUs: 585 GiB
  • 4 GPUs: 1220 GiB
  • 8 GPUs: 2540 GiB
NVIDIA L4
nvidia-l4
CPU
  • 1 GPU: 31 vCPU
  • 2 GPUs: 23 vCPU
  • 4 GPUs: 47 vCPUs
  • 8 GPUs: 95 vCPU

A soma dos pedidos de CPU de todos os DaemonSets executados num nó de GPU L4 não pode exceder 2 vCPUs.

Memória
  • 1 GPU: 115 GiB
  • 2 GPUs: 83 GiB
  • 4 GPUs: 177 GiB
  • 8 GPUs: 363 GiB

A soma dos pedidos de memória de todos os DaemonSets que são executados num nó de GPU L4 não pode exceder 14 GiB.

NVIDIA Tesla T4
nvidia-tesla-t4
CPU
  • 1 GPU: 46 vCPU
  • 2 GPUs: 46 vCPUs
  • 4 GPUs: 94 vCPUs
Memória
  • 1 GPU: 287,5 GiB
  • 2 GPUs: 287,5 GiB
  • 4 GPUs: 587,5 GiB
TPU v5e
tpu-v5-lite-podslice
CPU
  • Topologia 1 x 1: 24 vCPU
  • Topologia 2 x 2: 112 vCPU
  • Topologia 2x4 (pedido de 4 chips): 112 vCPU
  • Topologia 2x4 (pedido de 8 chips): 224 vCPU
  • Topologia 4x4: 112 vCPU
  • Topologia 4x8: 112 vCPU
  • Topologia 8x8: 112 vCPU
  • Topologia 8x16: 112 vCPU
  • Topologia 16 x 16: 112 vCPU
Memória
  • Topologia 1 x 1: 48 GiB
  • Topologia 2x2: 192 GiB
  • Topologia 2x4 (pedido de 4 chips): 192 GiB
  • Topologia 2x4 (pedido de 8 chips): 384 GiB
  • Topologia 4x4: 192 GiB
  • Topologia 4x8: 192 GiB
  • Topologia 8x8: 192 GiB
  • Topologia 8x16: 192 GiB
  • Topologia 16x16: 192 GiB
Armazenamento temporário 56 TiB
TPU v5p
tpu-v5p-slice
CPU 280 vCPU
Memória 448 GiB
Armazenamento temporário 56 TiB
TPU v4
tpu-v4-podslice
CPU 240 vCPU
Memória 407 GiB
Armazenamento temporário 56 TiB

Para saber como pedir GPUs nos seus pods do Autopilot, consulte o artigo Implemente cargas de trabalho de GPU no Autopilot.

Pedidos de recursos para separação de cargas de trabalho e duração prolongada

O Autopilot permite-lhe manipular o comportamento de agendamento e despejo do Kubernetes através de métodos como os seguintes:

Se os pedidos especificados forem inferiores aos mínimos, o comportamento do Autopilot muda com base no método que usou, da seguinte forma:

  • Taints, tolerations, seletores e pods de duração prolongada: o Autopilot modifica os seus pods para aumentar os pedidos ao agendar os pods.
  • Antiafinidade de pods: o Autopilot rejeita o pod e apresenta uma mensagem de erro.

A tabela seguinte descreve os pedidos predefinidos e os pedidos mínimos de recursos que pode especificar. Se uma configuração ou uma classe de computação não estiver nesta tabela, o Autopilot não aplica valores mínimos ou predefinidos especiais.

Classe de computação Recurso Predefinição Mínimo
Utilização geral CPU 0,5 vCPU 0,5 vCPU
Memória 2 GiB 0,5 GiB
Equilibrado CPU 2 vCPU 1 vCPU
Memória 8 GiB 4 GiB
Aumentar nós CPU 0,5 vCPU 0,5 vCPU
Memória 2 GiB 2 GiB

Contentores de inicialização

Os contentores de inicialização são executados sequencialmente e todos os contentores de inicialização têm de terminar a execução antes de os contentores de aplicações poderem ser iniciados. Nos clusters do Autopilot, se não especificar pedidos de CPU ou memória para contentores de inicialização ou definir explicitamente pedidos para 0, o Autopilot modifica os seus pods durante a criação para adicionar pedidos de recursos a cada contentor de inicialização. Os pedidos atribuídos a cada contentor de inicialização são iguais à soma dos pedidos de todos os contentores de aplicações no Pod. Este é o comportamento predefinido.

Este comportamento difere dos clusters padrão, em que os contentores de inicialização usam quaisquer recursos não atribuídos disponíveis no no qual o pod está agendado.

Alocação automática de recursos para contentores de inicialização

A atribuição automática de recursos para contentores init ocorre na criação de pods. Recomendamos que não especifique manualmente pedidos de recursos para os contentores init em clusters do Autopilot, para que cada contentor receba por predefinição todos os recursos disponíveis para o pod.

Se alterar os pedidos de recursos de contentores não init no pod após a criação, o Autopilot não ajusta automaticamente os pedidos de recursos dos contentores init. Como resultado, pode notar cobranças que não são consistentes com a utilização real de recursos do pod. A sua fatura baseia-se no pedido de recursos efetivo do pod, que é o maior dos seguintes:

  • O pedido de recursos mais elevado de qualquer contentor de inicialização único no pod.
  • A soma dos pedidos de todos os contentores de aplicações no agrupamento.

Para mais informações, consulte o artigo Gestão automática de recursos no Autopilot.

Atribuição manual de recursos para contentores init

Se precisar de alterar os pedidos de recursos existentes para os contentores da sua aplicação de modo a gerir os custos e os recursos, recomendamos que faça uma das seguintes ações para ajustar os pedidos de contentores de inicialização:

Definir limites de recursos no Autopilot

O Kubernetes permite-lhe definir requests e limits para recursos na especificação do pod. O comportamento dos seus Pods muda consoante os limits sejam diferentes dos requests, conforme descrito na tabela seguinte:

Valores definidos Comportamento do Autopilot
requests igual a limits Os pods usam a classe de QoS Guaranteed.
requests definido, limits não definido

O comportamento depende de o cluster suportar o aumento temporário, da seguinte forma:

  • Clusters que suportam o modo Burst: os pods podem entrar em modo Burst na capacidade de modo Burst disponível.
  • Clusters que não suportam o aumento rápido: O GKE define o valor limits igual ao valor requests

Para verificar se o seu cluster suporta o aumento rápido, consulte o artigo Disponibilidade do aumento rápido no GKE.

requests não definido, limits definido O Autopilot define requests para o valor de limits, que é o comportamento predefinido do Kubernetes.

Antes:

resources:
  limits:
    cpu: "400m"

Depois:

resources:
  requests:
    cpu: "400m"
  limits:
    cpu: "400m"
requests mais barato que limits

O comportamento depende de o cluster suportar o aumento temporário, da seguinte forma:

  • Clusters que suportam o aumento rápido: os pods podem aumentar rapidamente até ao valor especificado em limits.
  • Clusters que não suportam o aumento rápido: O GKE define o valor limits igual ao valor requests

Para verificar se o seu cluster suporta o aumento rápido, consulte o artigo Disponibilidade do aumento rápido no GKE.

requests maior que limits O Autopilot define requests para o valor de limits.

Antes:

resources:
  requests:
    cpu: "450m"
  limits:
    cpu: "400m"

Depois:

resources:
  requests:
    cpu: "400m"
  limits:
    cpu: "400m"
requests não definido, limits não definido

O Autopilot define requests para os valores predefinidos para a classe de computação ou a configuração de hardware.

O comportamento para limits depende de o cluster suportar o aumento da capacidade, da seguinte forma:

  • Clusters que suportam o modo Burst: o Autopilot não define limits.
  • Clusters que não suportam o aumento rápido: O GKE define o valor limits igual ao valor requests

Para verificar se o seu cluster suporta o aumento rápido, consulte o artigo Disponibilidade do aumento rápido no GKE.

Na maioria das situações, defina pedidos de recursos adequados e limites iguais para as suas cargas de trabalho.

Para cargas de trabalho que precisam temporariamente de mais recursos do que o respetivo estado estável, como durante o arranque ou durante períodos de tráfego mais elevado, defina os limites mais elevados do que os pedidos para permitir que os pods entrem em burst. Para ver detalhes, consulte o artigo Configure o aumento rápido de pods no GKE.

Gestão automática de recursos no Autopilot

Se os pedidos de recursos especificados para as suas cargas de trabalho estiverem fora dos intervalos permitidos ou se não pedir recursos para alguns contentores, o Autopilot modifica a configuração da carga de trabalho para estar em conformidade com os limites permitidos. O Autopilot calcula as proporções de recursos e os requisitos de aumento da escala de recursos após aplicar os valores predefinidos aos contentores sem pedido especificado.

  • Pedidos em falta: se não pedir recursos em alguns contentores, o Autopilot aplica os pedidos predefinidos para a classe de computação ou a configuração de hardware.
  • Relação CPU/memória: o piloto automático aumenta o recurso mais pequeno para colocar a relação dentro do intervalo permitido.
  • Armazenamento efémero: o Autopilot modifica os seus pedidos de armazenamento efémero para cumprir a quantidade mínima exigida por cada contentor. O valor cumulativo dos pedidos de armazenamento em todos os contentores não pode ser superior ao valor máximo permitido. Antes da versão 1.28.6-gke.1317000, o Autopilot reduz a escala do armazenamento efémero pedido se o valor exceder o máximo. Na versão 1.28.6-gke.1317000 e posteriores, o Autopilot rejeita a sua carga de trabalho.
  • Pedidos abaixo dos mínimos: se pedir menos recursos do que o mínimo permitido para a configuração de hardware selecionada, o Autopilot modifica automaticamente o pod para pedir, pelo menos, o valor mínimo do recurso.

Por predefinição, quando o Autopilot dimensiona automaticamente um recurso para satisfazer um valor de recurso mínimo ou predefinido, o GKE atribui a capacidade adicional ao primeiro contentor no manifesto do pod. Na versão 1.27.2-gke.2200 e posteriores do GKE, pode indicar ao GKE que atribua os recursos adicionais a um contentor específico adicionando o seguinte ao campo annotations no manifesto do pod:

autopilot.gke.io/primary-container: "CONTAINER_NAME"

Substitua CONTAINER_NAME pelo nome do recipiente.

Exemplos de modificação de recursos

O cenário de exemplo seguinte mostra como o Autopilot modifica a configuração da carga de trabalho para cumprir os requisitos dos contentores e dos pods em execução.

Contentor único com < 0,05 vCPU

Número do contentor Pedido original Pedido modificado
1 CPU: 30 mCPU
Memória: 0,5 GiB
Armazenamento efémero: 10 MiB
CPU: 50 mCPU
Memória: 0,5 GiB
Armazenamento efémero: 10 MiB

Vários contentores com um total de CPU inferior a 0,05 vCPU

Número do contentor Pedidos originais Pedidos modificados
1 CPU: 10 mCPU
Memória: 0,5 GiB
Armazenamento efémero: 10 MiB
CPU: 30 mCPU
Memória: 0,5 GiB
Armazenamento efémero: 10 MiB
2 CPU: 10 mCPU
Memória: 0,5 GiB
Armazenamento efémero: 10 MiB
CPU: 10 mCPU
Memória: 0,5 GiB
Armazenamento efémero: 10 MiB
3 CPU: 10 mvCPU
Memória: 0,5 GiB
Armazenamento efémero: 10 MiB
CPU: 10 mCPU
Memória: 0,5 GiB
Armazenamento efémero: 10 MiB
Total de recursos do agrupamento CPU: 50 mCPU
Memória: 1,5 GiB
Armazenamento efémero: 30 MiB

Recipiente único com memória demasiado baixa para a CPU pedida

Neste exemplo, a memória é demasiado baixa para a quantidade de CPU (mínimo de 1 vCPU:1 GiB). A proporção mínima permitida entre a CPU e a memória é de 1:1. Se a relação for inferior, o pedido de memória é aumentado.

Número do contentor Pedido original Pedido modificado
1 CPU: 4 vCPU
Memória: 1 GiB
Armazenamento efémero: 10 MiB
CPU: 4 vCPU
Memória: 4 GiB
Armazenamento efémero: 10 MiB
Total de recursos do agrupamento CPU: 4 vCPU
Memória: 4 GiB
Armazenamento efémero: 10 MiB

O que se segue?