Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Os operadores precisam concluir os pré-requisitos antes da implantação do software da plataforma Operator Nexus. Algumas dessas etapas podem levar tempo estendido, portanto, uma revisão desses pré-requisitos pode ser benéfica.
Nas implantações subsequentes das instâncias do Operador Nexus, você pode ir diretamente para a criação do Network Fabric local e do Cluster.
Pré-requisitos do Azure
Ao implantar o Operador Nexus pela primeira vez ou em uma nova região, primeiro você precisará criar um Controlador de Malha de Rede e, em seguida, um Gerenciador de Cluster, conforme especificado na página Pré-requisitos do Nexus do Operador do Azure . Além disso, as seguintes tarefas precisam ser realizadas:
- Configurar usuários, políticas, permissões e RBAC
- Configure grupos de recursos para colocar e agrupar recursos de maneira lógica que será criada para a plataforma Operator Nexus.
- Estabelecer conectividade do ExpressRoute de sua WAN para uma Região do Azure
- Para habilitar o Microsoft Defender para Endpoint em máquinas bare metal locais, você deve ter selecionado um plano do Microsoft Defender para Servidores na sua assinatura do Operator Nexus antes da implantação. Informações adicionais disponíveis na página Defender para Cloud Security .
Em seus pré-requisitos locais
Ao implantar a instância local do Operador Nexus em seu datacenter, várias equipes provavelmente estão envolvidas na execução de várias funções. As tarefas a seguir devem ser executadas com precisão para garantir uma instalação de software de plataforma bem-sucedida.
Configuração de hardware físico
Um operador que deseja aproveitar o serviço Do Operador Nexus precisa comprar, instalar, configurar e operar recursos de hardware. Esta seção do documento descreve os componentes e os esforços necessários para comprar e implementar os sistemas de hardware apropriados. Esta seção discute a cobrança de materiais, o diagrama de elevações do rack e o diagrama de cabeamento e as etapas necessárias para montar o hardware.
Usando a Lista de Materiais (BOM)
Para garantir uma experiência de operador perfeita, o Operador Nexus desenvolveu um BOM para a aquisição de hardware necessária para o serviço. Este BOM é uma lista abrangente dos componentes e quantidades necessários para implementar o ambiente para uma implementação e manutenção bem-sucedidas da instância local. O BOM é estruturado para fornecer ao operador uma série de SKU (unidades de manutenção de estoque) que podem ser ordenadas de fornecedores de hardware. As SKUs são discutidas posteriormente no documento.
Usando o diagrama de elevação
O diagrama de elevação do rack é uma referência gráfica que demonstra como os servidores e outros componentes se encaixam nos racks montados e configurados. O diagrama de elevação do rack é fornecido como parte das instruções gerais de montagem. Ele ajudará a equipe de operadores a configurar e instalar corretamente todos os componentes de hardware necessários para a operação de serviço.
Diagrama de cabeamento
Diagramas de cabeamento são representações gráficas das conexões de cabo necessárias para fornecer serviços de rede a componentes instalados nos racks. Seguir o diagrama de cabeamento garante a implementação adequada dos vários componentes no build.
Como ordenar com base no SKU
Definição de SKU
Uma SKU é um método de gerenciamento e acompanhamento de inventário que permite o agrupamento de vários componentes em um único designador. Uma SKU permite que um operador solicite todos os componentes necessários por meio da especificação de um número de SKU. O SKU agiliza a interação do operador e do fornecedor ao mesmo tempo em que reduz erros de ordenação devido a listas de partes complexas.
Colocando um pedido baseado em SKU
O operador Nexus criou uma série de SKUs com fornecedores como Dell, Pure Storage e Arista que o operador pode referenciar quando faz um pedido. Portanto, um operador simplesmente precisa fazer um pedido com base nas informações de SKU fornecidas pelo Operador Nexus ao fornecedor para receber a lista de partes correta para o build.
Como construir a pegada física do hardware
O build de hardware físico é executado por meio de uma série de etapas, que serão detalhadas nesta seção. Há três etapas de pré-requisitos antes da execução da construção. Esta seção também discutirá suposições sobre as habilidades dos funcionários do operador para executar a construção.
Pedido e recebimento do SKU específico de infraestrutura de hardware
O pedido da SKU apropriada e a entrega do hardware para o local devem ocorrer antes do início da construção. O tempo adequado deve ser permitido para esta etapa. Recomendamos que o operador se comunique com o fornecedor do hardware no início do processo para garantir e entender os prazos de entrega.
Preparação do site
O site de instalação pode dar suporte à infraestrutura de hardware de uma perspectiva de espaço, energia e rede. Os requisitos de site específicos serão definidos pela SKU adquirida para o site. Essa etapa pode ser realizada depois que o pedido é feito e antes do recebimento do SKU.
Agendando recursos
O processo de build requer que vários membros diferentes da equipe executem a compilação, como engenheiros para fornecer energia, acesso à rede e cabeamento, equipe de sistemas para montar os racks, comutadores e servidores, para citar alguns. Para garantir que a construção seja realizada em tempo hábil, recomendamos agendar esses membros da equipe com antecedência com base no cronograma de entrega.
Suposições sobre a criação de habilidades de equipe
A equipe que executa a compilação deve ser experimentada na montagem de hardware de sistemas, como racks, comutadores, PDUs e servidores. As instruções fornecidas discutirão as etapas do processo, ao mesmo tempo em que fazem referência a elevações de rack e diagramas de cabeamento.
Visão geral do processo de build
Se a preparação do site for concluída e validada para dar suporte à SKU ordenada, o processo de build ocorrerá nas seguintes etapas:
- Monte os racks com base nas elevações de rack da SKU. As instruções específicas de montagem de rack serão fornecidas pelo fabricante do rack.
- Depois que os racks forem montados, instale os dispositivos de malha nos racks de acordo com o diagrama de elevação.
- Realize o cabeamento dos dispositivos de rede em malha conectando as interfaces de rede de acordo com o diagrama de cabeamento.
- Instale e monte os servidores conforme o diagrama de elevação de rack.
- Monte e instale o dispositivo de armazenamento conforme o diagrama de elevação do rack.
- Conecte o servidor e os dispositivos de armazenamento conectando as interfaces de rede de acordo com o diagrama de cabeamento.
- Alimentação por cabo de cada dispositivo.
- Examine/valide o build por meio das listas de verificação fornecidas pelo Operador Nexus e outros fornecedores.
Como inspecionar visualmente a instalação de hardware físico
É recomendável rotular todos os cabos seguindo os Padrões ANSI/TIA 606 ou os padrões do operador durante o processo de construção. O processo de build também deve criar um mapeamento reverso para cabeamento de uma porta de comutador para uma conexão de extremidade distante. O mapeamento reverso pode ser comparado ao diagrama de cabeamento para validar a instalação.
Configuração do Servidor do Terminal e da matriz de armazenamento
Agora que a instalação física e a validação foram concluídas, as próximas etapas envolveram a configuração das configurações padrão necessárias antes da instalação do software da plataforma.
Configurar o Servidor de Terminal
Observação
Este guia foi validado com o firmware Opengear versão 24.11.2, que foi atualizado da versão 22.06.0 e tem suporte com o runtime do Nexus Network Fabric versão 5.0.0.
O Servidor de Terminal foi implantado e configurado da seguinte maneira:
- O Servidor de Terminal está configurado para gerenciamento fora de banda
- Credenciais de autenticação foram configuradas
- O cliente DHCP está habilitado na porta de gerenciamento fora de banda
- O acesso HTTP está habilitado
- A interface do Servidor de Terminal está conectada aos roteadores de Borda do Provedor (PEs) no local do operador e configurada com os endereços IP e credenciais.
- O Servidor de Terminal é acessível por meio da VPN de gerenciamento
- Para atualizar o servidor de terminal para a versão 24.11.2 do sistema operacional, consulte
- Para configurar sessão única e tempo limite de sessão para o console serial , consulte
Etapa 1: Configurando o nome do host
Para configurar o nome do host para o servidor de terminal, siga estas etapas:
Use o seguinte comando na CLI:
sudo ogcli update system/hostname hostname=\"<TS_HOSTNAME>\"
Parâmetros:
| Nome do parâmetro | Description |
|---|---|
| TS_HOSTNAME | Nome do host do servidor de terminal |
Consulte a Referência da CLI para obter mais detalhes.
Etapa 2: Configurando a rede
Para definir as configurações de rede, siga estas etapas:
Execute os seguintes comandos na CLI:
sudo ogcli create conn << 'END'
description="PE1 to TS NET1"
mode="static"
ipv4_static_settings.address="<TS_NET1_IP>"
ipv4_static_settings.netmask="<TS_NET1_NETMASK>"
ipv4_static_settings.gateway="<TS_NET1_GW>"
physif="net1"
END
sudo ogcli create conn << 'END'
description="PE2 to TS NET2"
mode="static"
ipv4_static_settings.address="<TS_NET2_IP>"
ipv4_static_settings.netmask="<TS_NET2_NETMASK>"
ipv4_static_settings.gateway="<TS_NET2_GW>"
physif="net2"
END
Parâmetros:
| Nome do parâmetro | Description |
|---|---|
| TS_NET1_IP | Servidor terminal PE1 para TS NET1 IP |
| TS_NET1_NETMASK | Máscara de rede do servidor de terminal PE1 para a rede TS NET1 |
| TS_NET1_GW | Servidor de terminal PE1 para gateway TS NET1 |
| TS_NET2_IP | Servidor Terminal PE2 para IP TS NET2 |
| TS_NET2_NETMASK | Máscara de rede do servidor terminal PE2 até TS NET2 |
| TS_NET2_GW | Servidor de terminal PE2 para gateway TS NET2 |
Observação
Substitua esses parâmetros por valores apropriados.
Etapa 3: Limpar a interface net3 (se existente)
Para limpar a interface net3, siga estas etapas:
- Verifique se há qualquer interface configurada na interface física net3 e "Endereço Estático IPv4 padrão" usando o seguinte comando:
ogcli get conns
description="Default IPv4 Static Address"
name="<TS_NET3_CONN_NAME>"
physif="net3"
Parâmetros:
| Nome do parâmetro | Description |
|---|---|
| TS_NET3_CONN_NAME | Nome da conexão NET3 do servidor de terminal |
- Remova a interface se ela existir:
ogcli delete conn "<TS_NET3_CONN_NAME>"
Observação
Substitua esses parâmetros por valores apropriados.
Etapa 4: Configurando o usuário administrador de suporte
Para configurar o usuário administrador de suporte, siga estas etapas:
- Para cada usuário, execute o seguinte comando na CLI:
ogcli create user << 'END'
description="Support Admin User"
enabled=true
groups[0]="admin"
groups[1]="netgrp"
password="<SUPPORT_PWD>"
username="<SUPPORT_USER>"
END
Parâmetros:
| Nome do parâmetro | Description |
|---|---|
| USUÁRIO_SUPORTE | Usuário administrador de suporte |
| SUPPORT_PWD | Senha de usuário do administrador de suporte |
Observação
Substitua esses parâmetros por valores apropriados.
Etapa 5: Adicionar suporte ao sudo para usuários administradores
Para adicionar suporte ao sudo para usuários administradores, siga estas etapas:
- Abra o arquivo de configuração sudoers:
sudo vi /etc/sudoers.d/opengear
- Adicione as seguintes linhas para conceder acesso ao 'sudo':
%netgrp ALL=(ALL) ALL
%admin ALL=(ALL) NOPASSWD: ALL
Observação
Salve as alterações depois de editar o arquivo.
Essa configuração permite que os membros do grupo "netgrp" executem qualquer comando como qualquer usuário e membro do grupo "administrador" para executar qualquer comando como qualquer usuário sem a necessidade de uma senha.
Etapa 6: Garantir a disponibilidade do serviço LLDP
Para garantir que o serviço LLDP esteja disponível no servidor de terminal, siga estas etapas:
Verifique se o serviço LLDP está em execução:
sudo systemctl status lldpd
Você deverá ver uma saída semelhante à seguinte se o serviço estiver em execução:
lldpd.service - LLDP daemon
Loaded: loaded (/lib/systemd/system/lldpd.service; enabled; vendor preset: disabled)
Active: active (running) since Thu 2023-09-14 19:10:40 UTC; 3 months 25 days ago
Docs: man:lldpd(8)
Main PID: 926 (lldpd)
Tasks: 2 (limit: 9495)
Memory: 1.2M
CGroup: /system.slice/lldpd.service
├─926 lldpd: monitor.
└─992 lldpd: 3 neighbors.
Notice: journal has been rotated since unit was started, output may be incomplete.
Se o serviço não estiver ativo (em execução), inicie o serviço:
sudo systemctl start lldpd
Habilite o serviço para iniciar na reinicialização:
sudo systemctl enable lldpd
Observação
Execute estas etapas para garantir que o serviço LLDP esteja sempre disponível e seja iniciado automaticamente após a reinicialização.
Etapa 7: Verificando a data/hora do sistema
Verifique se a data/hora do sistema está definida corretamente e se o fuso horário do servidor terminal está em UTC.
Verifique a configuração de fuso horário:
Para verificar a configuração de fuso horário atual:
ogcli get system/timezone
Defina o fuso horário como UTC:
Se o fuso horário não estiver definido como UTC, você poderá defini-lo usando:
ogcli update system/timezone timezone=\"UTC\"
Verifique a data/hora atual:
Verifique a data e a hora atuais:
date
Corrija a data/hora se estiver incorreto:
Se a data/hora estiver incorreta, você poderá corrigi-la usando:
ogcli replace system/time
Reading information from stdin. Press Ctrl-D to submit and Ctrl-C to cancel.
time="<CURRENT_DATE_TIME>"
Parâmetros:
| Nome do parâmetro | Description |
|---|---|
| CURRENT_DATE_TIME | Hora da data atual no formato hh:mm MMM DD, YYYY |
Observação
Verifique se a data/hora do sistema é precisa para evitar problemas com aplicativos ou serviços que dependem dele.
Etapa 8: Rotulação de portas do Servidor de Terminal (caso estejam ausentes ou incorretas)
Para rotular portas do Terminal Server, use o seguinte comando:
ogcli update port "port-<PORT_#>" label=\"<NEW_NAME>\" <PORT_#>
Parâmetros:
| Nome do parâmetro | Description |
|---|---|
| NEW_NAME | Nome do rótulo da porta |
| PORT_# | Número da porta do Servidor de Terminal |
Etapa 9: Configurações necessárias para conexões seriais do PURE Array
As matrizes Pure Storage adquiridas antes de 2024 têm controladores de revisão R3 que usam cabos de console rollover e exigem os comandos personalizados de conexão de porta serial a seguir:
Controladores R3 Pure Storage:
ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X1"' <PORT_#> Pure Storage Controller console
Os dispositivos mais recentes da Pure Storage e os sistemas com controladores Pure Storage atualizados de R3 para R4 usarão cabos de console diretos com as configurações atualizadas abaixo:
Pure Storage R4 Controladores:
ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X2"' <PORT_#> Pure Storage Controller console
Parâmetros:
| Nome do parâmetro | Description |
|---|---|
| PORT_# | Número da porta do Servidor de Terminal |
Esses comandos definem a taxa de transmissão e o pinout para se conectar ao console do Controlador Pure Storage.
Observação
Todas as outras configurações de porta do Terminal Server devem permanecer iguais e funcionar por padrão com um cabo de console RJ45 direto.
Etapa 10: Verificando as configurações
Para verificar as configurações, execute os seguintes comandos:
ping <PE1_IP> -c 3 # Ping test to PE1 //TS subnet +2
ping <PE2_IP> -c 3 # Ping test to PE2 //TS subnet +2
ogcli get conns # Verify NET1, NET2, NET3 Removed
ogcli get users # Verify support admin user
ogcli get static_routes # Ensure there are no static routes
ip r # Verify only interface routes
ip a # Verify loopback, NET1, NET2
date # Check current date/time
pmshell # Check ports labelled
sudo lldpctl
sudo lldpcli show neighbors # Check LLDP neighbors - should show data from NET1 and NET2
Observação
Verifique se os vizinhos do LLDP estão conforme o esperado, indicando conexões bem-sucedidas com PE1 e PE2.
Exemplo de saída de vizinhos LLDP:
-------------------------------------------------------------------------------
LLDP neighbors:
-------------------------------------------------------------------------------
Interface: net2, via: LLDP, RID: 2, Time: 0 day, 20:28:36
Chassis:
ChassisID: mac 12:00:00:00:00:85
SysName: austx502xh1.els-an.att.net
SysDescr: 7.7.2, S9700-53DX-R8
Capability: Router, on
Port:
PortID: ifname TenGigE0/0/0/0/3
PortDescr: GE10_Bundle-Ether83_austx4511ts1_net2_net2_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
TTL: 120
-------------------------------------------------------------------------------
Interface: net1, via: LLDP, RID: 1, Time: 0 day, 20:28:36
Chassis:
ChassisID: mac 12:00:00:00:00:05
SysName: austx501xh1.els-an.att.net
SysDescr: 7.7.2, S9700-53DX-R8
Capability: Router, on
Port:
PortID: ifname TenGigE0/0/0/0/3
PortDescr: GE10_Bundle-Ether83_austx4511ts1_net1_net1_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
TTL: 120
-------------------------------------------------------------------------------
Observação
Verifique se a saída corresponde às suas expectativas e se todas as configurações estão corretas.
Determinar se o SafeMode deve ser habilitado em matrizes de armazenamento
As matrizes de Armazenamento Puro dão suporte a um recurso chamado SafeMode, que foi projetado para proteger contra ataques de ransomware e outras atividades mal-intencionadas. Quando habilitados, instantâneos de volumes são criados periodicamente que não podem ser totalmente excluídos ou modificados para um período de retenção configurável. Habilitar o SafeMode fornece proteção contra perda de dados, mas também usa mais capacidade de armazenamento na matriz.
A plataforma Operator Nexus dá suporte a SafeMode habilitado em matrizes de armazenamento. Os volumes estão sujeitos à sua proteção, desde que os Grupos de Proteção padrão incluam pelo menos um com SafeMode habilitado. No entanto, ele não interage diretamente com os instantâneos gerados, e você precisa trabalhar com seu representante de suporte da Pure se precisar recuperar dados de um instantâneo.
Por padrão, o SafeMode é habilitado em matrizes de Armazenamento Puro por meio de um Grupo de Proteção padrão. Se você quiser desabilitá-lo, poderá fazer isso excluindo esse Grupo de Proteção padrão. Se você quiser habilitar o SafeMode com diferentes configurações de frequência de criação de instantâneos ou retenção, poderá criar um novo Grupo de Proteção com o SafeMode ativado e as configurações desejadas.
Para obter mais informações sobre SafeMode e suas implicações, consulte a documentação do Armazenamento Puro (entrada necessária). Entre em contato com seu representante de suporte puro para obter mais perguntas sobre SafeMode e sua configuração.
Configurar a primeira matriz de armazenamento
- O operador precisa instalar o hardware da matriz de armazenamento, conforme especificado pelo BOM e elevação do rack dentro do Rack de Agregação.
- O operador precisa fornecer informações ao técnico da matriz de armazenamento para que o técnico da matriz de armazenamento chegue ao local para configurar o dispositivo.
- Dados específicos do local necessários que são compartilhados com o técnico da matriz de armazenamento:
- Nome do cliente:
- Data da inspeção física:
- Número de série do chassi:
- Nome do host da matriz de armazenamento:
- Código CLLI (identificador de local do Common Language):
- Endereço de instalação:
- LOCALIZAÇÃO FIC/Rack/Grade:
- Dados fornecidos ao operador e compartilhados com o técnico da matriz de armazenamento, que serão comuns a todas as instalações:
- Nível de código de puridade: consulte as versões de Purity com suporte
- Modo de Segurança: consulte Determinar se o Modo de Segurança é habilitado em matrizes de armazenamento
- Fuso horário do array: UTC
- Endereço IP do servidor DNS (Sistema de Nomes de Domínio): não definido pelo operador durante a instalação
- Sufixo de domínio DNS: não definido por operador durante a instalação
- Endereço IP do servidor NTP (Protocolo de Tempo de Rede) ou FQDN: não definido por operador durante a instalação
- Syslog Primary: não definido por operador durante a instalação
- Syslog Secundário: não definido pelo operador durante a instalação
- Endereço IP do Gateway SMTP ou FQDN: não definido por operador durante a instalação
- Nome de Domínio do Remetente de Email: nome de domínio do remetente do email (example.com)
- Endereços de email a serem alertados: não definidos pelo operador durante a instalação
- Servidor proxy e porta: não definido por operador durante a instalação
- Gerenciamento: Interface Virtual
- Endereço IP: 172.27.255.200
- Gateway: não definido por operador durante a instalação
- Máscara de sub-rede: 255.255.255.0
- MTU: 1500
- Bond: não definido por operador durante a instalação
- Gerenciamento: Controlador 0
- Endereço IP: 172.27.255.254
- Gateway: não definido por operador durante a instalação
- Máscara de sub-rede: 255.255.255.0
- MTU: 1500
- Bond: não definido por operador durante a instalação
- Gerenciamento: Controlador 1
- Endereço IP: 172.27.255.253
- Gateway: não definido por operador durante a instalação
- Máscara de sub-rede: 255.255.255.0
- MTU: 1500
- Bond: não definido por operador durante a instalação
- ct0.eth10: não definido pelo operador durante a instalação
- ct0.eth11: não definido pelo operador durante a instalação
- ct0.eth18: não definido pelo operador durante a instalação
- ct0.eth19: não definido pelo operador durante a instalação
- ct1.eth10: não definido pelo operador durante a instalação
- ct1.eth11: não definido pelo operador durante a instalação
- ct1.eth18: não definido pelo operador durante a instalação
- ct1.eth19: não definido pelo operador durante a instalação
- Tunable puro a ser aplicado:
puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";
(Opcional) Configurar a segunda matriz de armazenamento
Observação
Esta seção é opcional. Você só precisará executá-la se estiver implantando uma instância do Nexus do Operador do Azure com dois dispositivos de armazenamento. Para obter mais informações, incluindo restrições de hardware com suporte, consulte Nexus do Operador Azure: múltiplos dispositivos de armazenamento.
- O operador precisa instalar o hardware da matriz de armazenamento, conforme especificado pelo BOM e elevação do rack dentro do Rack de Agregação.
- O operador precisa fornecer informações ao técnico da matriz de armazenamento para que o técnico da matriz de armazenamento chegue ao local para configurar o dispositivo.
- Dados específicos do local necessários que são compartilhados com o técnico da matriz de armazenamento:
- Nome do cliente:
- Data da inspeção física:
- Número de série do chassi:
- Nome do host da matriz de armazenamento:
- Código CLLI (identificador de local do Common Language):
- Endereço de instalação:
- LOCALIZAÇÃO FIC/Rack/Grade:
- Dados fornecidos ao operador e compartilhados com o técnico da matriz de armazenamento, que serão comuns a todas as instalações:
- Nível de código de puridade: consulte as versões de Purity com suporte
- Modo de Segurança: consulte Determinar se o Modo de Segurança é habilitado em matrizes de armazenamento
- Fuso horário do array: UTC
- Endereço IP do servidor DNS (Sistema de Nomes de Domínio): não definido pelo operador durante a instalação
- Sufixo de domínio DNS: não definido por operador durante a instalação
- Endereço IP do servidor NTP (Protocolo de Tempo de Rede) ou FQDN: não definido por operador durante a instalação
- Syslog Primary: não definido por operador durante a instalação
- Syslog Secundário: não definido pelo operador durante a instalação
- Endereço IP do Gateway SMTP ou FQDN: não definido por operador durante a instalação
- Nome de Domínio do Remetente de Email: nome de domínio do remetente do email (example.com)
- Endereços de email a serem alertados: não definidos pelo operador durante a instalação
- Servidor proxy e porta: não definido por operador durante a instalação
- Gerenciamento: Interface Virtual
- Endereço IP: 172.27.255.201
- Gateway: não definido por operador durante a instalação
- Máscara de sub-rede: 255.255.255.0
- MTU: 1500
- Bond: não definido por operador durante a instalação
- Gerenciamento: Controlador 0
- Endereço IP: 172.27.255.251
- Gateway: não definido por operador durante a instalação
- Máscara de sub-rede: 255.255.255.0
- MTU: 1500
- Bond: não definido por operador durante a instalação
- Gerenciamento: Controlador 1
- Endereço IP: 172.27.255.252
- Gateway: não definido por operador durante a instalação
- Máscara de sub-rede: 255.255.255.0
- MTU: 1500
- Bond: não definido por operador durante a instalação
- ct0.eth10: não definido pelo operador durante a instalação
- ct0.eth11: não definido pelo operador durante a instalação
- ct0.eth18: não definido pelo operador durante a instalação
- ct0.eth19: não definido pelo operador durante a instalação
- ct1.eth10: não definido pelo operador durante a instalação
- ct1.eth11: não definido pelo operador durante a instalação
- ct1.eth18: não definido pelo operador durante a instalação
- ct1.eth19: não definido pelo operador durante a instalação
- Tunable puro a ser aplicado:
puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";
Atribuição de IP do iDRAC
Antes de implantar o Cluster Nexus, é melhor para o operador definir os IPs iDRAC enquanto organiza os racks de hardware. Veja como mapear servidores para IPs:
- Atribua IPs com base na posição de cada servidor dentro do rack.
- Utilize o quarto bloco /24 da sub-rede /19 alocada para o Fabric.
- Comece a atribuir IPs do servidor inferior para cima em cada rack, começando com 0,11.
- Continue atribuindo IPs em sequência ao primeiro servidor na parte inferior do próximo rack.
Example
Intervalo de rede: 10.1.0.0-10.1.31.255 – a quarta sub-rede /24 do iDRAC é 10.1.3.0/24.
| Rack | Servidor | IP iDRAC |
|---|---|---|
| Rack 1 | Trabalhador 1 | 10.1.3.11/24 |
| Rack 1 | Trabalhador 2 | 10.1.3.12/24 |
| Rack 1 | Trabalhador 3 | 10.1.3.13/24 |
| Rack 1 | Trabalhador 4 | 10.1.3.14/24 |
| Rack 1 | Trabalhador 5 | 10.1.3.15/24 |
| Rack 1 | Trabalhador 6 | 10.1.3.16/24 |
| Rack 1 | Trabalhador 7 | 10.1.3.17/24 |
| Rack 1 | Trabalhador 8 | 10.1.3.18/24 |
| Rack 1 | Controlador 1 | 10.1.3.19/24 |
| Rack 1 | Controlador 2 | 10.1.3.20/24 |
| Rack 2 | Trabalhador 1 | 10.1.3.21/24 |
| Rack 2 | Trabalhador 2 | 10.1.3.22/24 |
| Rack 2 | Trabalhador 3 | 10.1.3.23/24 |
| Rack 2 | Trabalhador 4 | 10.1.3.24/24 |
| Rack 2 | Trabalhador 5 | 10.1.3.25/24 |
| Rack 2 | Trabalhador 6 | 10.1.3.26/24 |
| Rack 2 | Trabalhador 7 | 10.1.3.27/24 |
| Rack 2 | Trabalhador 8 | 10.1.3.28/24 |
| Rack 2 | Controlador 1 | 10.1.3.29/24 |
| Rack 2 | Controlador 2 | 10.1.3.30/24 |
| Rack 3 | Trabalhador 1 | 10.1.3.31/24 |
| Rack 3 | Trabalhador 2 | 10.1.3.32/24 |
| Rack 3 | Trabalhador 3 | 10.1.3.33/24 |
| Rack 3 | Trabalhador 4 | 10.1.3.34/24 |
| Rack 3 | Trabalhador 5 | 10.1.3.35/24 |
| Rack 3 | Trabalhador 6 | 10.1.3.36/24 |
| Rack 3 | Trabalhador 7 | 10.1.3.37/24 |
| Rack 3 | Trabalhador 8 | 10.1.3.38/24 |
| Rack 3 | Controlador 1 | 10.1.3.39/24 |
| Rack 3 | Controlador 2 | 10.1.3.40/24 |
| Rack 4 | Trabalhador 1 | 10.1.3.41/24 |
| Rack 4 | Trabalhador 2 | 10.1.3.42/24 |
| Rack 4 | Trabalhador 3 | 10.1.3.43/24 |
| Rack 4 | Trabalhador 4 | 10.1.3.44/24 |
| Rack 4 | Trabalhador 5 | 10.1.3.45/24 |
| Rack 4 | Trabalhador 6 | 10.1.3.46/24 |
| Rack 4 | Trabalhador 7 | 10.1.3.47/24 |
| Rack 4 | Trabalhador 8 | 10.1.3.48/24 |
| Rack 4 | Controlador 1 | 10.1.3.49/24 |
| Rack 4 | Controlador 2 | 10.1.3.50/24 |
Um design de exemplo de três instâncias on-premises do mesmo par NFC/CM, usando redes sequenciais /19 em um /16.
| Instância | Gama de Tecidos | Sub-rede iDRAC |
|---|---|---|
| Instância 1 | 10.1.0.0-10.1.31.255 | 10.1.3.0/24 |
| Instância 2 | 10.1.32.0-10.1.63.255 | 10.1.35.0/24 |
| Instância 3 | 10.1.64.0-10.1.95.255 | 10.1.67.0/24 |
Configuração padrão para outros dispositivos instalados
- Todos os dispositivos de malha de rede (exceto o Servidor de Terminal) estão configurados para o modo
ZTP - Os servidores têm configurações de fábrica padrão, incluindo as configurações mínimas do BIOS.
Versões mínimas recomendadas de BIOS e firmware para o tempo de execução do Cluster Nexus
Como prática recomendada, as seguintes versões de BIOS e firmware precisam ser instaladas nos servidores antes da implantação, com base na versão de runtime selecionada e no BOM. Para referência, a versão N é a versão de runtime mais recente disponível. N-1 e N-2 são as versões de runtime com suporte anteriores.
Versão N do runtime do Cluster Nexus
BOM 1.7.3
| Componente | Versão |
|---|---|
| BIOS | 1.18.1 |
| Controlador de Matriz de Armazenamento (PERC H755) | 52.30.0-6115 |
| iDRAC | 7.20.30.55 |
| Firmware SEP passivo para backplane de armazenamento não expansível (15G) | 7.10 |
| Dispositivo Lógico Programável Complexo (CPLD) | 1.1.1 |
| Adaptador Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Adaptador Broadcom 5720 Quad Port 1GbE BASE-T | 23.21.6 |
BOM 2.0.0
| Componente | Versão |
|---|---|
| BIOS | 2.7.5 |
| Controlador de Matriz de Armazenamento (PERC H755) | 52.30.0-6115 |
| iDRAC | 7.20.30.55 |
| Firmware da placa-mãe secundária do expansor SAS (R760) | 1.61 |
| Firmware de backplane de armazenamento sem expander (R660) | 7.10 |
| Dispositivo Lógico Programável Complexo (CPLD) | 1.2.6 |
| Adaptador Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Adaptador Broadcom 5720 Quad Port 1GbE BASE-T | 23.21.6 |
Runtime do Cluster Nexus versão N-1
BOM 1.7.3
| Componente | Versão |
|---|---|
| BIOS | 1.17.2 |
| Controlador de Matriz de Armazenamento (PERC H755) | 52.26.0-5179 |
| iDRAC | 7.20.30.00 |
| Firmware SEP passivo para backplane de armazenamento não expansível (15G) | 7.10 |
| Dispositivo Lógico Programável Complexo (CPLD) | 1.1.1 |
| Adaptador Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Adaptador Broadcom 5720 Quad Port 1GbE BASE-T | 23.21.6 |
BOM 2.0.0
| Componente | Versão |
|---|---|
| BIOS | 2.6.3 |
| Controlador de Matriz de Armazenamento (PERC H755) | 52.26.0-5179 |
| iDRAC | 7.20.30.00 |
| Firmware da placa-mãe secundária do expansor SAS (R760) | 1.61 |
| Firmware de backplane de armazenamento sem expander (R660) | 7.10 |
| Dispositivo Lógico Programável Complexo (CPLD) | 1.2.6 |
| Adaptador Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Adaptador Broadcom 5720 Quad Port 1GbE BASE-T | 23.21.6 |
Versão de runtime do Cluster Nexus N-2
BOM 1.7.3
| Componente | Versão |
|---|---|
| BIOS | 1.15.2 |
| Controlador de Matriz de Armazenamento (PERC H755) | 52.26.0-5179 |
| iDRAC | 7.10.90.00 |
| Firmware SEP passivo para backplane de armazenamento não expansível (15G) | 7.10 |
| Dispositivo Lógico Programável Complexo (CPLD) | 1.1.1 |
| Adaptador Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Adaptador Broadcom 5720 Quad Port 1GbE BASE-T | 22.91.5 |
BOM 2.0.0
| Componente | Versão |
|---|---|
| BIOS | 2.4.4 |
| Controlador de Matriz de Armazenamento (PERC H755) | 52.26.0-5179 |
| iDRAC | 7.10.90.00 |
| Firmware da placa-mãe secundária do expansor SAS (R760) | 1.61 |
| Firmware de backplane de armazenamento sem expander (R660) | 7.10 |
| Dispositivo Lógico Programável Complexo (CPLD) | 1.2.6 |
| Adaptador Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Adaptador Broadcom 5720 Quad Port 1GbE BASE-T | 22.91.5 |
Regras de firewall entre o Azure e o Cluster Nexus.
Para estabelecer regras de firewall entre o Azure e o Cluster Nexus, o operador deve abrir as portas especificadas. Isso garante a comunicação e a conectividade adequadas para os serviços necessários usando TCP (Protocolo de Controle de Transmissão) e UDP (Protocolo de Datagrama do Usuário).
| S.No | Source | Destino | Porta (TCP/UDP) | Bidirecional | Finalidade da regra |
|---|---|---|---|---|---|
| 1 | Rede virtual do Azure | Cluster | 22 TCP | Não | Para SSH nos servidores undercloud a partir da sub-rede CM |
| 2 | Rede virtual do Azure | Cluster | TCP 443 | Não | Para acessar os nós subnuve iDRAC |
| 3 | Rede virtual do Azure | Cluster | 5900 TCP | Não | Gnmi |
| 4 | Rede virtual do Azure | Cluster | TCP 6030 | Não | Certificados Gnmi |
| 5 | Rede virtual do Azure | Cluster | TCP 6443 | Não | Para acessar o cluster K8S da nuvem subnuve |
| 6 | Cluster | Rede virtual do Azure | TCP 8080 | Yes | Para montar imagem ISO no iDRAC, atualização de runtime do NNF |
| 7 | Cluster | Rede virtual do Azure | TCP 3128 | Não | Proxy para se conectar aos endpoints globais do Azure |
| 8 | Cluster | Rede virtual do Azure | 53 TCP e UDP | Não | DNS |
| 9 | Cluster | Rede virtual do Azure | 123 UDP | Não | NTP |
| 10 | Cluster | Rede virtual do Azure | TCP 8888 | Não | Conectando-se ao serviço Web do Gerenciador de Cluster |
| 11 | Cluster | Rede virtual do Azure | 514 TCP e UDP | Não | Para acessar logs de undercloud no Gerenciador de Cluster |
Instalar extensões da CLI e entrar em sua assinatura do Azure
Instale a versão mais recente das extensões da CLI necessárias.
Credenciais da assinatura do Azure
az login
az account set --subscription <SUBSCRIPTION_ID>
az account show
Observação
A conta deve ter permissões para ler/gravar/publicar na assinatura