Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Personalizar a configuração do nó permite ajustar as configurações do sistema operacional (SO) ou os parâmetros do kubelet para corresponder às necessidades de suas cargas de trabalho. Ao criar um cluster AKS ou adicionar um pool de nós ao cluster, você pode personalizar um subconjunto de configurações de SO e kubelet comumente usadas. Para definir configurações além desse subconjunto, você pode usar um conjunto de daemon para personalizar suas configurações necessárias sem perder o suporte AKS para seus nós.
Criar ficheiros personalizados de configuração de nós para pools de nós AKS
As alterações de configuração do sistema operacional e do kubelet exigem que você crie um novo arquivo de configuração com os parâmetros e as configurações desejadas. Se um valor para um parâmetro não for especificado, então o valor é definido para o padrão.
Nota
Os exemplos seguintes mostram definições de configuração comuns. Pode modificar as definições para satisfazer os requisitos da sua carga de trabalho. Para uma lista completa de parâmetros de configuração personalizados suportados, consulte a secção Parâmetros de configuração personalizados suportados .
Configuração do Kubelet
Crie um linuxkubeletconfig.json arquivo com o seguinte conteúdo:
{
"cpuManagerPolicy": "static",
"cpuCfsQuota": true,
"cpuCfsQuotaPeriod": "200ms",
"imageGcHighThreshold": 90,
"imageGcLowThreshold": 70,
"topologyManagerPolicy": "best-effort",
"allowedUnsafeSysctls": [
"kernel.msg*",
"net.*"
],
"failSwapOn": false
}
Configuração do SO
Crie um linuxosconfig.json arquivo com o seguinte conteúdo:
{
"transparentHugePageEnabled": "madvise",
"transparentHugePageDefrag": "defer+madvise",
"swapFileSizeMB": 1500,
"sysctls": {
"netCoreSomaxconn": 163849,
"netIpv4TcpTwReuse": true,
"netIpv4IpLocalPortRange": "32000 60000"
}
}
Crie um cluster AKS usando ficheiros de configuração personalizados
Nota
Tenha em mente as seguintes informações ao usar ficheiros de configuração personalizados ao criar um novo cluster AKS:
- Se especificar uma configuração ao criar um cluster, a configuração aplica-se apenas aos nós do pool inicial de nós. Quaisquer definições não configuradas no ficheiro JSON mantêm os seus valores predefinidos.
-
CustomLinuxOsConfignão é suportado para o tipo de sistema operativo Windows.
Crie um novo cluster utilizando ficheiros de configuração personalizados com o comando az aks create e especificando os seus ficheiros de configuração para os parâmetros --kubelet-config e --linux-os-config. O comando de exemplo a seguir cria um novo cluster com os arquivos e ./linuxkubeletconfig.json personalizados./linuxosconfig.json:
az aks create --name <cluster-name> --resource-group <resource-group-name> --kubelet-config ./linuxkubeletconfig.json --linux-os-config ./linuxosconfig.json
Adicionar um pool de nós usando arquivos de configuração personalizados
Nota
Tenha em mente as seguintes informações ao usar ficheiros de configuração personalizados ao adicionar um novo pool de nós a um cluster AKS existente:
- Ao adicionar um pool de nós Linux a um cluster existente, você pode especificar a configuração do kubelet, a configuração do sistema operacional ou ambas. Ao adicionar um pool de nós do Windows a um cluster existente, você só pode especificar a configuração do kubelet. Se especificar uma configuração ao adicionar um pool de nós, a configuração aplica-se apenas aos nós do novo pool de nós. Quaisquer definições não configuradas no ficheiro JSON mantêm os seus valores predefinidos.
-
CustomKubeletConfigé suportado para pools de nós Linux e Windows.
Crie um novo pool de nós Linux usando o comando az aks nodepool add e especificando os teus ficheiros de configuração para os parâmetros --kubelet-config e --linux-os-config. O seguinte comando de exemplo cria um novo pool de nós Linux com o ficheiro personalizado ./linuxkubeletconfig.json :
az aks nodepool add --name <node-pool-name> --cluster-name <cluster-name> --resource-group <resource-group-name> --kubelet-config ./linuxkubeletconfig.json
Confirme que as definições foram aplicadas
Depois de aplicares uma configuração personalizada de nós, podes confirmar que as definições foram aplicadas aos nós ligando-te ao host e verificando sysctl ou fazendo alterações de configuração no sistema de ficheiros.
Parâmetros de configuração personalizados suportados
Configuração personalizada do kubelet no Linux
| Parâmetro | Valores/intervalo permitidos | Predefinido | Description |
|---|---|---|---|
cpuManagerPolicy |
nenhum, estático | nenhum | A política estática permite que contentores em pods garantidos com pedidos de CPU inteiros acessem CPUs exclusivas no nó. |
cpuCfsQuota |
TRUE, false | verdadeiro | Ativar/desativar a aplicação de quotas CFS da CPU para contentores que especificam limites de CPU. |
cpuCfsQuotaPeriod |
Intervalo em milissegundos (ms) | 100ms |
Define o valor do período de cota CFS da CPU. |
imageGcHighThreshold |
0-100 | 85 | A porcentagem de uso do disco após a qual a coleta de lixo de imagem é sempre executada. Uso mínimo de disco que desencadeia a recolha de lixo. Para desativar a coleta de lixo de imagem, defina como 100. |
imageGcLowThreshold |
0-100, não superior a imageGcHighThreshold |
80 | A porcentagem de uso do disco antes da qual a coleta de lixo de imagem nunca é executada. Uso mínimo de disco que pode acionar a coleta de lixo. |
topologyManagerPolicy |
nenhum, melhor esforço, restrito, nó único | nenhum | Otimize o alinhamento dos nós NUMA. Para mais informações, consulte Políticas de Gestão de Topologia de Controlo num nó. |
allowedUnsafeSysctls |
kernel.shm*, kernel.msg*, kernel.sem, fs.mqueue.*, net.* |
Nenhuma | Lista permitida de sysctls não seguros ou padrões de sysctl não seguros. |
containerLogMaxSizeMB |
Tamanho em megabytes (MB) | 50 | O tamanho máximo (por exemplo, 10 MB) de um ficheiro de registo de contentor antes de ser rodado. |
containerLogMaxFiles |
≥ 2 | 5 | O número máximo de arquivos de log de contêiner que podem estar presentes para um contêiner. |
podMaxPids |
-1 para o limite PID do kernel | -1 (∞) | O número máximo de IDs de processo que podem ser executados num Pod. |
seccompDefault |
Unconfined, RuntimeDefault |
Unconfined |
Define o perfil seccomp padrão para todas as cargas de trabalho.
RuntimeDefault Usa o perfil Seccomp padrão do Containerd, restringindo determinadas chamadas do sistema para aumentar a segurança. Chamadas de sistema restritas falham.
Unconfined não impõe restrições às chamadas de sistema, permitindo todas as chamadas ao sistema e reduzindo a segurança. Para obter mais informações, consulte o perfil seccomp predefinido containerd. Este parâmetro está em pré-visualização.
Regista o flag de funcionalidade "KubeletDefaultSeccompProfilePreview" usando o az feature register comando com --namespace "Microsoft.ContainerService". |
Windows kubelet configuração personalizada
| Parâmetro | Valores/intervalo permitidos | Predefinido | Description |
|---|---|---|---|
imageGcHighThreshold |
0-100 | 85 | A porcentagem de uso do disco após a qual a coleta de lixo de imagem é sempre executada. Uso mínimo de disco que desencadeia a recolha de lixo. Para desativar a coleta de lixo de imagem, defina como 100. |
imageGcLowThreshold |
0-100, não superior a imageGcHighThreshold |
80 | A porcentagem de uso do disco antes da qual a coleta de lixo de imagem nunca é executada. Uso mínimo de disco que pode acionar a coleta de lixo. |
containerLogMaxSizeMB |
Tamanho em megabytes (MB) | 10 | O tamanho máximo (por exemplo, 10 MB) de um ficheiro de registo de contentor antes de ser rotacionado. |
containerLogMaxFiles |
≥ 2 | 5 | O número máximo de arquivos de log de contêiner que podem estar presentes para um contêiner. |
Definições de configuração do sistema operacional personalizado do Linux
Importante
Para simplificar a pesquisa e a legibilidade, as definições do sistema operativo são apresentadas neste artigo pelo nome, mas devem ser adicionadas ao ficheiro JSON de configuração ou à API AKS usando a convenção de capitalização camelCase.
Por exemplo, se modificar o vm.max_map_count setting, deve formatar para vmMaxMapCount no ficheiro JSON de configuração.
Limites de controlo de ficheiros Linux
Ao servir grandes quantidades de tráfego, esse tráfego normalmente provém de um grande número de ficheiros locais. Pode ajustar as seguintes definições do kernel e os limites incorporados para permitir lidar com mais, à custa de alguma memória do sistema.
A tabela seguinte lista os limites de handles de ficheiros que pode personalizar para cada pool de nós:
| Definição | Valores/intervalo permitidos | Ubuntu 22.04 predefinido | Ubuntu 24.04 por defeito | Azure Linux 3.0 predefinição | Description |
|---|---|---|---|---|---|
fs.file-max |
8192 - 9223372036854775807 | 9223372036854775807 | 9223372036854775807 | 9223372036854775807 | Número máximo de handles de ficheiros alocados pelo kernel Linux. Este valor é definido para o valor máximo possível (2^63-1) para evitar o esgotamento dos descritores de ficheiro e garantir descritores de ficheiro ilimitados em todo o sistema para cargas de trabalho containerizadas. |
fs.inotify.max_user_watches |
781250 - 2097152 | 1048576 | 1048576 | 1048576 | Número máximo de inspeções de arquivos permitido pelo sistema. Cada relógio tem aproximadamente 90 bytes em um kernel de 32 bits e aproximadamente 160 bytes em um kernel de 64 bits. |
fs.aio-max-nr |
65536 - 6553500 | 65536 | 65536 | 65536 | O aio-nr mostra o número atual de solicitações de e/s assíncronas em todo o sistema. AIO-Max-NR permite que você altere o valor máximo para o qual AIO-NR pode crescer. |
fs.nr_open |
8192 - 20000500 | 1048576 | 1048576 | 1073741816 | O número máximo de identificadores de arquivo que um processo pode alocar. |
Nota
O fs.file-max parâmetro é definido como 9223372036854775807 (o valor máximo para um inteiro de 64 bits assinado) no Ubuntu e no Azure Linux com base em padrões upstream. Esta configuração:
- Previne ataques de negação de serviço com base no esgotamento do descritor de arquivos em todo o sistema.
- Garante que as cargas de trabalho de contentores nunca sejam congestionadas por limites de manipuladores de ficheiros em todo o sistema.
-
Mantém a segurança através de limites por processo (
fs.nr_openeulimit) que ainda se aplicam a processos individuais. - Otimiza para plataformas de contentores onde muitos contentores podem correr simultaneamente, cada um potencialmente abrindo muitos ficheiros e ligação à rede.
Ajuste de sockets Linux e rede
Para os nós de agente, que se espera que lidem com um grande número de sessões concorrentes, você pode usar as seguintes opções TCP e de rede e ajustá-las de acordo com o pool de nós:
| Definição | Valores/intervalo permitidos | Ubuntu 22.04 predefinição | Ubuntu 24.04 por defeito | Azure Linux 3.0 padrão | Description |
|---|---|---|---|---|---|
net.core.somaxconn |
4096 - 3240000 | 16384 | 16384 | 16384 | Número máximo de solicitações de conexão que podem ser enfileiradas para qualquer soquete de escuta. Um limite superior para o valor do parâmetro backlog passado para a função listen(2 ). Se o argumento da lista de pendências for maior que o somaxconn, ele será silenciosamente truncado até esse limite. |
net.core.netdev_max_backlog |
1000 - 3240000 | 1000 | 1000 | 1000 | Número máximo de pacotes, enfileirados no lado INPUT, quando a interface recebe pacotes mais rápido do que o kernel pode processá-los. |
net.core.rmem_max |
212992 - 134217728 | 1048576 | 1048576 | 212992 | O tamanho máximo do buffer de soquete de recebimento em bytes. |
net.core.wmem_max |
212992 - 134217728 | 212992 | 212992 | 212992 | O tamanho máximo do buffer de soquete de envio em bytes. |
net.core.optmem_max |
20480 - 4194304 | 20480 | 131072 | 20480 | Tamanho máximo do buffer auxiliar (buffer de memória opcional) permitido por soquete. A memória de opção de soquete é usada em alguns casos para armazenar estruturas extras relacionadas ao uso do soquete. |
net.ipv4.tcp_max_syn_backlog |
128 - 3240000 | 16384 | 16384 | 16384 | O número máximo de pedidos de ligação em fila que não receberam confirmação do cliente de ligação. Se este número for ultrapassado, o kernel começa a perder pedidos. |
net.ipv4.tcp_max_tw_buckets |
8000 - 1440000 | 262144 | 262144 | 131072 | Número máximo de timewait tomadas mantidas pelo sistema simultaneamente. Se esse número for excedido, o soquete de espera é imediatamente destruído e o aviso é impresso. |
net.ipv4.tcp_fin_timeout |
5 - 120 | 60 | 60 | 60 | O tempo em que uma ligação órfã (já não referenciada por qualquer aplicação) permanece no estado FIN_WAIT_2 antes de ser abortada na extremidade local. |
net.ipv4.tcp_keepalive_time |
30 - 432000 | 7200 | 7200 | 7200 | Com que frequência o keepalive TCP envia mensagens quando keepalive está ativado. |
net.ipv4.tcp_keepalive_probes |
1 - 15 | 9 | 9 | 9 | Quantas keepalive sondas o TCP envia, até decidir que a conexão está quebrada. |
net.ipv4.tcp_keepalive_intvl |
10 - 90 | 75 | 75 | 75 | Com que frequência as sondas são enviadas. Multiplicado por tcp_keepalive_probes ele compõe o tempo para matar uma conexão que não está respondendo, depois que as sondas começaram. |
net.ipv4.tcp_tw_reuse |
2 | 2 | 2 | Permitir a reutilização TIME-WAIT de soquetes para novas conexões quando for seguro do ponto de vista do protocolo. |
|
net.ipv4.ip_local_port_range |
Primeiro: 1024 - 60999 e Último: 32768 - 65535] | Primeiro: 32768 e Último: 60999 | Primeiro: 32768 e Último: 60999 | Primeiro: 32768 e Último: 60999 | O intervalo de portas locais usado pelo tráfego TCP e UDP para escolher a porta local. Composto por dois números: O primeiro número é a primeira porta local permitida para o tráfego TCP e UDP no nó do agente, o segundo é o último número de porta local. |
net.ipv4.neigh.default.gc_thresh1 |
128 - 80000 | 4096 | 4096 | 4096 | Número mínimo de entradas que podem estar na cache ARP. A recolha de lixo não é ativada se o número de entradas estiver abaixo desta definição. |
net.ipv4.neigh.default.gc_thresh2 |
512 - 90000 | 8192 | 8192 | 8192 | Número máximo suave de entradas que podem estar na cache ARP. Esta configuração é, provavelmente, a mais importante, pois a recolha de lixo ARP é ativada cerca de 5 segundos após atingir este limite suave. |
net.ipv4.neigh.default.gc_thresh3 |
1024 - 100000 | 16384 | 16384 | 16384 | Número máximo de entradas no cache ARP. |
net.netfilter.nf_conntrack_max |
131072 - 2097152 | 524288 | 524288 | 262144 |
nf_conntrack é um módulo que rastreia entradas de conexão para NAT dentro do Linux. O módulo nf_conntrack utiliza uma tabela hash para registar o registo de ligação estabelecida do protocolo TCP.
nf_conntrack_max é o número máximo de nós na tabela hash, ou seja, o número máximo de ligações suportadas pelo módulo nf_conntrack ou o tamanho da tabela de rastreio de ligações. |
net.netfilter.nf_conntrack_buckets |
65536 - 524288 | 262144 | 262144 | 262144 |
nf_conntrack é um módulo que rastreia entradas de conexão para NAT dentro do Linux. O módulo nf_conntrack utiliza uma tabela hash para registar o registo de ligação estabelecida do protocolo TCP.
nf_conntrack_buckets é o tamanho da tabela hash. |
Limites de trabalhador Linux
Como os limites do descritor de arquivo, o número de trabalhadores ou threads que um processo pode criar são limitados por uma configuração do kernel e limites de usuário. O limite de usuários no AKS é ilimitado. A tabela seguinte lista as definições do kernel que pode personalizar por grupo de nós.
| Definição | Ubuntu 22.04 predefinido | Ubuntu 24.04 predefinido | Azure Linux 3.0 padrão | Description |
|---|---|---|---|---|
kernel.threads-max |
1030425 | 1030462 | 256596 | Os processos podem girar threads de trabalho. O número máximo de todos os threads que podem ser criados é definido com a configuração kernel.threads-maxdo kernel. |
Memória virtual Linux
A tabela seguinte lista as definições do kernel que pode personalizar por pool de nós para ajustar o funcionamento do subsistema de memória virtual (VM) do kernel Linux e os writeout dados sujos no disco:
| Definição | Valores/intervalo permitidos | Ubuntu 22.04 padrão | Ubuntu 24.04 por defeito | Azure Linux 3.0 padrão | Description |
|---|---|---|---|---|---|
vm.max_map_count |
65530 | 1048576 | 1048576 | Este ficheiro contém o número máximo de áreas de mapa de memória que um processo pode ter. As áreas do mapa de memória são usadas como um efeito colateral de chamar malloc, diretamente por mmap, mprotecte , e madvisetambém ao carregar bibliotecas compartilhadas. |
|
vm.vfs_cache_pressure |
1 - 100 | 100 | 100 | 100 | Esse valor percentual controla a tendência do kernel de recuperar a memória, que é usada para armazenar em cache objetos de diretório e inode. |
vm.swappiness |
0 - 100 | 60 | 60 | 60 | Este controlo é usado para definir quão agressivamente o kernel troca as páginas de memória. Valores mais altos aumentam a agressividade, valores mais baixos diminuem a quantidade de troca. Um valor de 0 instrui o kernel a não iniciar a troca até que a quantidade de páginas livres e apoiadas por arquivos seja menor do que a marca d'água alta em uma zona. |
swapFileSizeMB |
1 MB - Tamanho do disco temporário (/dev/sdb) | Nenhuma | Nenhuma | Nenhuma | SwapFileSizeMB especifica o tamanho em MB de um ficheiro de swap a criar nos nós agente deste pool de nós. |
transparentHugePageEnabled |
always, madvise, never |
always |
always |
madvise |
Transparent Hugepages é um recurso do kernel Linux destinado a melhorar o desempenho, fazendo um uso mais eficiente do hardware de mapeamento de memória do seu processador. Quando ativado, o kernel tenta alocar hugepages sempre que possível, e qualquer processo Linux recebe páginas de 2 MB se a região mmap estiver naturalmente alinhada a 2 MB. Em certos casos, quando hugepages estão ativados em todo o sistema, as aplicações podem acabar por alocar mais recursos de memória. Uma aplicação pode mmap ter uma região grande mas tocar apenas 1 byte dela; nesse caso, pode ser alocada uma página de 2 MB em vez de uma de 4k sem razão aparente. Esse cenário é o motivo pelo qual é possível desativar hugepages todo o sistema ou tê-los apenas dentro MADV_HUGEPAGE madvise de regiões. |
transparentHugePageDefrag |
always, defer, defer+madvise, madvise, never |
madvise |
madvise |
madvise |
Esse valor controla se o kernel deve fazer uso agressivo da compactação de memória para tornar mais hugepages disponível. |
Conteúdo relacionado
- Saiba como configurar o cluster AKS.
- Saiba como atualizar as imagens de nó no cluster.
- Consulte Atualizar um cluster do Serviço Kubernetes do Azure (AKS) para saber como atualizar seu cluster para a versão mais recente do Kubernetes.
- Consulte a lista de Perguntas frequentes sobre o AKS para encontrar respostas para algumas perguntas comuns do AKS.