Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Talvez você queira alterar o tamanho de suas máquinas virtuais (VMs) para acomodar um número crescente de implantações ou para executar uma carga de trabalho maior. Não há suporte para o redimensionamento de instâncias do AKS diretamente ao usar Conjuntos de Dimensionamento de Máquina Virtual no AKS, conforme descrito nas políticas de suporte para o AKS:
Os nós do agente AKS aparecem no portal do Azure como recursos regulares de IaaS do Azure. Mas essas máquinas virtuais são implantadas em um grupo de recursos personalizado do Azure (geralmente prefixada com MC_*). Não é possível fazer personalizações diretas nesses nós usando as APIs ou recursos IaaS. Quaisquer alterações personalizadas que não sejam feitas através da API AKS não persistirão através de um upgrade, escalamento, atualização ou reinicialização.
Neste artigo, você aprenderá o método recomendado para redimensionar um pool de nós criando um novo pool de nós com o tamanho de SKU desejado, isolando e drenando os nós existentes e, em seguida, removendo o pool de nós existente.
Important
Este método é específico para clusters AKS baseados em Conjuntos de Escala de Máquina Virtual. Ao usar pools de nós baseados em Máquinas Virtuais, você pode atualizar facilmente os tamanhos de VM em um pool de nós existente usando um único comando da CLI do Azure e ter vários tamanhos de VM no mesmo pool de nós. Para obter mais informações, consulte a documentação dos pools de nós de máquinas virtuais.
Crie um novo pool de nós com a SKU desejada
Note
Cada cluster AKS precisa ter pelo menos um pool de nós do sistema, incluindo pelo menos um nó. Neste exemplo, usamos um --mode de System para adicionar um pool de nós do sistema como substituto para o pool de nós do sistema que queremos redimensionar. Você pode atualizar o modo de um pool de nós a qualquer momento. Você também pode adicionar um pool de nós de usuário definindo --mode como User.
Ao redimensionar, certifique-se de considerar todos os requisitos de carga de trabalho, como zonas de disponibilidade, e configure seu pool de nós VMSS de acordo. Talvez seja necessário modificar o comando a seguir para melhor atender às suas necessidades. Para obter uma lista completa das opções de configuração, consulte a az aks nodepool add página de referência.
Crie um novo pool de nós usando o
az aks nodepool addcomando. Neste exemplo, criamos um novo pool de nós,mynodepool, com três nós e aStandard_DS3_v2SKU da VM para substituir um pool de nós existente,nodepool1, que tem a SKU daStandard_DS2_v2VM.az aks nodepool add \ --resource-group myResourceGroup \ --cluster-name myAKSCluster \ --name mynodepool \ --node-count 3 \ --node-vm-size Standard_DS3_v2 \ --mode System \ --no-waitDemora alguns minutos até que o novo pool de nós seja criado.
Obtenha o status do novo pool de nós usando o
kubectl get nodescomando.kubectl get nodesSua saída deve ser semelhante à saída de exemplo a seguir, mostrando o novo pool de nós
mynodepoole o pool de nós existentenodepool1.NAME STATUS ROLES AGE VERSION aks-mynodepool-98765432-vmss000000 Ready agent 23m v1.21.9 aks-mynodepool-98765432-vmss000001 Ready agent 23m v1.21.9 aks-mynodepool-98765432-vmss000002 Ready agent 23m v1.21.9 aks-nodepool1-12345678-vmss000000 Ready agent 10d v1.21.9 aks-nodepool1-12345678-vmss000001 Ready agent 10d v1.21.9 aks-nodepool1-12345678-vmss000002 Ready agent 10d v1.21.9
Isolar os nós existentes
Cordoning marca nós especificados como não escalonáveis e impede que mais pods sejam adicionados aos nós.
Obtenha os nomes dos nós que pretende isolar usando o comando
kubectl get nodes.kubectl get nodesSua saída deve ser semelhante ao seguinte exemplo, mostrando os nós no conjunto de nós existente
nodepool1que você deseja isolar:NAME STATUS ROLES AGE VERSION aks-nodepool1-12345678-vmss000000 Ready agent 7d21h v1.21.9 aks-nodepool1-12345678-vmss000001 Ready agent 7d21h v1.21.9 aks-nodepool1-12345678-vmss000002 Ready agent 7d21h v1.21.9Corde os nós existentes usando o
kubectl cordoncomando, especificando os nós desejados em uma lista separada por espaço. Por exemplo:kubectl cordon aks-nodepool1-12345678-vmss000000 aks-nodepool1-12345678-vmss000001 aks-nodepool1-12345678-vmss000002Sua saída deve ser semelhante à seguinte saída de exemplo, mostrando que os nós estão isolados.
node/aks-nodepool1-12345678-vmss000000 cordoned node/aks-nodepool1-12345678-vmss000001 cordoned node/aks-nodepool1-12345678-vmss000002 cordoned
Drene os nós existentes
Important
Para drenar com êxito os nós e remover os pods em execução, certifique-se de que os PodDisruptionBudgets (PDBs) permitam que pelo menos uma réplica de pod seja realocada de cada vez. Caso contrário, a operação de drenagem/remoção falhará. Para verificar isso, você pode executar kubectl get pdb -A e verificar ALLOWED DISRUPTIONS se é pelo menos 1 ou superior.
Quando você drena nós, os pods que correm sobre eles são removidos e recriados nos outros nós escalonáveis.
Escoe os nós existentes usando o comando
kubectl draincom os flags--ignore-daemonsetse--delete-emptydir-data, especificando numa lista separada por espaço os nós desejados. Por exemplo:Important
O uso de
--delete-emptydir-dataé necessário para remover os podscorednsemetrics-servercriados pelo AKS. Se você não usar esse sinalizador, receberá um erro. Para obter mais informações, consulte a documentação em emptydir.kubectl drain aks-nodepool1-12345678-vmss000000 aks-nodepool1-12345678-vmss000001 aks-nodepool1-12345678-vmss000002 --ignore-daemonsets --delete-emptydir-dataApós o término da operação de drenagem, todos os pods (excluindo os pods controlados por conjuntos de daemons) devem ser executados no novo pool de nós. Você pode verificar isso usando o
kubectl get podscomando.kubectl get pods -o wide -A
Solucionar problemas de remoção de pods
Você pode encontrar o seguinte erro ao drenar nós:
Error when evicting pods/[podname] -n [namespace] (will retry after 5s): Cannot evict pod as it would violate the pod's disruption budget.
Por padrão, o seu cluster tem orçamentos de interrupção de pods geridos pelo AKS (como coredns-pdb ou konnectivity-agent) com um MinAvailable de 1. Por exemplo, se houver dois coredns pods em execução, apenas um pode ser interrompido de cada vez. Enquanto um deles está sendo recriado e está indisponível, o outro coredns pod não pode ser removido devido ao orçamento de interrupção do pod. Esse problema se resolve depois que o pod inicial coredns é agendado e executado, permitindo que o segundo pod seja removido e recriado corretamente.
Tip
Considere drenar nós um a um para uma experiência de expulsão mais suave e para evitar o estrangulamento. Para obter mais informações, consulte:
Remover o pool de nós existente
Important
Quando elimina um pool de nós, o AKS não executa cordonamento e drenagem. Para minimizar a interrupção do reagendamento de pods atualmente em execução no pool de nós que você planeja excluir, execute um cordão e drene todos os nós no pool de nós antes de excluir.
Exclua o pool de nós original usando o
az aks nodepool deletecomando.az aks nodepool delete \ --resource-group myResourceGroup \ --cluster-name myAKSCluster \ --name nodepool1Verifique se o seu cluster AKS tem apenas o novo node pool, com as aplicações e pods a funcionar corretamente, usando o comando
kubectl get nodes.kubectl get nodesSua saída deve ser semelhante à saída de exemplo a seguir, mostrando apenas o novo grupo de nós
mynodepool.NAME STATUS ROLES AGE VERSION aks-mynodepool-98765432-vmss000000 Ready agent 63m v1.21.9 aks-mynodepool-98765432-vmss000001 Ready agent 63m v1.21.9 aks-mynodepool-98765432-vmss000002 Ready agent 63m v1.21.9
Próximos passos
Depois de redimensionar um pool de nós através de isolamento e esvaziamento, saiba mais sobre como usar vários pools de nós.