Partager via


Conditions préalables à la plateforme Nexus de l’opérateur

Les opérateurs doivent remplir les conditions préalables avant le déploiement du logiciel de plateforme Opérateur Nexus. Certaines de ces mesures peuvent prendre des périodes prolongées, de sorte qu’un examen de ces conditions préalables peut s’avérer bénéfique.

Dans les déploiements suivants d’instances Nexus d’opérateur, vous pouvez passer à la création de l’infrastructure réseau locale et du cluster.

Conditions préalables pour Azure

Lorsque vous déployez l’opérateur Nexus pour la première fois ou dans une nouvelle région, vous devez d’abord créer un contrôleur Network Fabric, puis un gestionnaire de cluster tel que spécifié dans la page Conditions préalables de l’opérateur Azure. En outre, les tâches suivantes doivent être effectuées :

  • Configurer des utilisateurs, des stratégies, des autorisations et RBAC
  • Configurez des groupes de ressources pour placer et regrouper des ressources de manière logique qui seront créées pour la plateforme Opérateur Nexus.
  • Établir une connectivité ExpressRoute de votre WAN à une région Azure
  • Pour activer Microsoft Defender pour Endpoint sur des machines bare metal locales, vous devez avoir sélectionné un plan Defender pour serveurs dans votre abonnement Operator Nexus avant le déploiement. Informations supplémentaires disponibles sur la page Defender pour Cloud Security .

Conditions préalables sur site

Lors du déploiement d’une instance locale d’Opérateur Nexus dans votre centre de données, différentes équipes sont probablement impliquées dans l’exécution de différents rôles. Les tâches suivantes doivent être effectuées avec précision pour garantir une installation réussie du logiciel de plateforme.

Configuration matérielle physique

Un opérateur qui souhaite tirer parti du service Opérateur Nexus doit acheter, installer, configurer et exploiter des ressources matérielles. Cette section du document décrit les composants et les efforts nécessaires pour acheter et implémenter les systèmes matériels appropriés. Cette section décrit la facture de matériaux, le diagramme d’élévations de rack et le diagramme de câblage, ainsi que les étapes requises pour assembler le matériel.

Utilisation de la facture de matériaux (BOM)

Pour garantir une expérience d’opérateur fluide, l’opérateur Nexus a développé un boM pour l’acquisition matérielle nécessaire pour le service. Ce boM est une liste complète des composants et quantités nécessaires à l’implémentation de l’environnement pour une implémentation et une maintenance réussies de l’instance locale. Le boM est structuré pour fournir à l’opérateur une série d’unités de conservation de stock (SKU) qui peuvent être ordonnées auprès des fournisseurs de matériel. Les références SKU sont abordées plus loin dans le document.

Utilisation du diagramme d’élévation

Le diagramme d’élévation de rack est une référence graphique qui montre comment les serveurs et d’autres composants s’intègrent dans les racks assemblés et configurés. Le diagramme d’élévation de rack est fourni dans le cadre des instructions de construction globales. Il aidera le personnel des opérateurs à configurer et installer correctement tous les composants matériels nécessaires pour l’opération de service.

Diagramme de câblage

Les diagrammes de câblage sont des représentations graphiques des connexions de câble requises pour fournir des services réseau aux composants installés dans les racks. Suivre le diagramme de câblage garantit une mise en œuvre appropriée des différents composants dans la construction.

Comment commander en fonction de la référence SKU

Définition de référence SKU

Une référence SKU est une méthode de gestion et de suivi de l’inventaire qui permet de regrouper plusieurs composants en un seul indicateur. Une référence SKU permet à un opérateur d’ordonner tous les composants nécessaires via la spécification d’un numéro de référence SKU. La référence SKU accélère l’interaction entre l’opérateur et le fournisseur tout en réduisant les erreurs de commande en raison de listes de parties complexes.

Placement d’une commande basée sur une référence SKU

L’opérateur Nexus a créé une série de références SKU avec des fournisseurs tels que Dell, Pure Storage et Arista que l’opérateur peut référencer lorsqu’il passe une commande. Ainsi, un opérateur doit simplement passer une commande en fonction des informations de référence SKU fournies par l’opérateur Nexus au fournisseur pour recevoir la liste des parties correctes pour la build.

Comment créer l’empreinte matérielle physique

La construction matérielle physique est exécutée par une série d’étapes, qui seront détaillées dans cette section. Il existe trois étapes préalables avant l’exécution de la build. Cette section aborde également les hypothèses relatives aux compétences des employés de l'opérateur pour réaliser l'assemblage.

Commande et réception de la référence SKU de l’infrastructure matérielle spécifique

L’ordre de la référence SKU appropriée et la livraison du matériel sur le site doivent se produire avant le début de la construction. Le temps approprié doit être autorisé pour cette étape. Nous recommandons à l’opérateur de communiquer avec le fournisseur du matériel dès le début du processus pour garantir et comprendre les délais de livraison.

Préparation du site

Le site d’installation peut prendre en charge l’infrastructure matérielle du point de vue de l’espace, de l’alimentation et du réseau. Les exigences de site spécifiques seront définies par la référence SKU achetée pour le site. Cette étape peut être effectuée une fois la commande passée et avant la réception de la référence SKU.

Planification des ressources

Le processus de construction nécessite plusieurs membres du personnel différents pour réaliser la construction, comme les ingénieurs pour fournir l’alimentation, l’accès réseau et le câblage, le personnel des systèmes pour assembler les racks, les commutateurs et les serveurs, entre autres. Pour vous assurer que la build est effectuée en temps opportun, nous vous recommandons de planifier ces membres d’équipe à l’avance en fonction du calendrier de livraison.

Hypothèses relatives à la création de compétences du personnel

Le personnel exécutant la build doit être expérimenté lors de l’assemblage de matériel de systèmes tels que des racks, des commutateurs, des pdUs et des serveurs. Les instructions fournies décrivent les étapes du processus, tout en référençant les élévations de rack et les diagrammes de câblage.

Vue d’ensemble du processus de compilation

Si la préparation du site est terminée et validée pour prendre en charge le SKU commandé, le processus de génération se produit selon les étapes suivantes :

  1. Assemblez les racks en fonction des niveaux de rack du SKU. Des instructions d’assemblage de rack spécifiques seront fournies par le fabricant du rack.
  2. Une fois les racks assemblés, installez les appareils de structure dans les racks conformément au diagramme d’élévation.
  3. Câblez les appareils de réseau en connectant les interfaces réseau selon le schéma de câblage.
  4. Assemblez et installez les serveurs par diagramme d’élévation de rack.
  5. Assemblez et installez le périphérique de stockage conformément au schéma d’élévation de rack.
  6. Câblez le serveur et les périphériques de stockage en connectant les interfaces réseau par diagramme de câblage.
  7. Alimentation du câble à partir de chaque appareil.
  8. Passez en revue/validez la build via les listes de contrôle fournies par l’opérateur Nexus et d’autres fournisseurs.

Comment inspecter visuellement l’installation matérielle physique

Il est recommandé d’étiqueter tous les câbles suivant les normes ANSI/TIA 606, ou les normes de l’opérateur, pendant le processus d'installation. Le processus de génération doit également créer un mappage inversé pour le câblage à partir d’un port de commutateur vers une connexion à l'extrémité distante. Le mappage inverse peut être comparé au diagramme de câblage pour valider l’installation.

Configuration du serveur Terminal Server et du tableau de stockage

Maintenant que l’installation physique et la validation sont terminées, les étapes suivantes impliquent la configuration des paramètres par défaut requis avant l’installation du logiciel de plateforme.

Configurer le serveur de terminaux

Note

Ce guide a été validé avec le microprogramme Opengear version 24.11.2, qui a été mis à niveau à partir de la version 22.06.0 et est pris en charge avec le runtime Nexus Network Fabric version 5.0.0.

Terminal Server a été déployé et configuré comme suit :

  • Terminal Server est configuré pour la gestion hors bande
    • Les identifiants d'authentification ont été configurés
    • Le client DHCP est activé sur le port de gestion hors bande
    • L’accès HTTP est activé
  • L’interface Terminal Server est connectée aux routeurs PE sur site des opérateurs et configurée avec les adresses IP et les informations d’identification.
  • Terminal Server est accessible à partir du VPN de gestion
  • Pour mettre à niveau le serveur terminal vers le système d’exploitation version 24.11.2 , consultez
  • Pour configurer une session unique et un délai d’expiration pour la console série , reportez-vous à

Étape 1 : Configuration du nom d’hôte

Pour configurer le nom d’hôte de votre serveur terminal, procédez comme suit :

Utilisez la commande suivante dans l’interface CLI :

sudo ogcli update system/hostname hostname=\"<TS_HOSTNAME>\"

Paramètres :

Nom du paramètre Descriptif
TS_HOSTNAME Nom d’hôte du serveur terminal

Pour plus d’informations, reportez-vous à la référence CLI .

Étape 2 : Configuration du réseau

Pour configurer les paramètres réseau, procédez comme suit :

Exécutez les commandes suivantes dans l’interface CLI :

sudo ogcli create conn << 'END'
  description="PE1 to TS NET1"
  mode="static"
  ipv4_static_settings.address="<TS_NET1_IP>"
  ipv4_static_settings.netmask="<TS_NET1_NETMASK>"
  ipv4_static_settings.gateway="<TS_NET1_GW>"
  physif="net1"
  END
sudo ogcli create conn << 'END'
  description="PE2 to TS NET2"
  mode="static"
  ipv4_static_settings.address="<TS_NET2_IP>"
  ipv4_static_settings.netmask="<TS_NET2_NETMASK>"
  ipv4_static_settings.gateway="<TS_NET2_GW>"
  physif="net2"
  END

Paramètres :

Nom du paramètre Descriptif
TS_NET1_IP IP PE1 du serveur terminal vers TS NET1
TS_NET1_NETMASK Masque de sous-réseau du serveur terminal PE1 vers TS NET1
TS_NET1_GW Passerelle du serveur terminal PE1 vers TS NET1
TS_NET2_IP Serveur terminal PE2 à IP TS NET2
TS_NET2_NETMASK Masque de réseau du serveur terminal PE2 vers TS NET2
TS_NET2_GW Passerelle du serveur terminal PE2 vers TS NET2

Note

Veillez à remplacer ces paramètres par des valeurs appropriées.

Étape 3 : Effacement de l’interface net3 (le cas échéant)

Pour effacer l’interface net3, procédez comme suit :

  1. Recherchez une interface configurée sur l’interface physique net3 et « Adresse statique IPv4 par défaut » à l’aide de la commande suivante :
ogcli get conns
  description="Default IPv4 Static Address"
  name="<TS_NET3_CONN_NAME>"
  physif="net3"

Paramètres :

Nom du paramètre Descriptif
TS_NET3_CONN_NAME Nom de la connexion NET3 du serveur Terminal Server
  1. Supprimez l’interface s’il existe :
ogcli delete conn "<TS_NET3_CONN_NAME>"

Note

Veillez à remplacer ces paramètres par des valeurs appropriées.

Étape 4 : Configuration de l’utilisateur administrateur du support technique

Pour configurer l’utilisateur administrateur de support, procédez comme suit :

  1. Pour chaque utilisateur, exécutez la commande suivante dans l’interface CLI :
ogcli create user << 'END'
description="Support Admin User"
enabled=true
groups[0]="admin"
groups[1]="netgrp"
password="<SUPPORT_PWD>"
username="<SUPPORT_USER>"
END

Paramètres :

Nom du paramètre Descriptif
SUPPORT_USER Utilisateur administrateur de support
SUPPORT_PWD Assistance pour le mot de passe de l'utilisateur admin

Note

Veillez à remplacer ces paramètres par des valeurs appropriées.

Étape 5 : Ajout de la prise en charge sudo pour les utilisateurs administrateurs

Pour ajouter la prise en charge sudo pour les utilisateurs administrateurs, procédez comme suit :

  1. Ouvrez le fichier de configuration sudoers :
sudo vi /etc/sudoers.d/opengear
  1. Ajoutez les lignes suivantes pour accorder l’accès sudo :
%netgrp ALL=(ALL) ALL
%admin ALL=(ALL) NOPASSWD: ALL

Note

Veillez à enregistrer les modifications après avoir modifié le fichier.

Cette configuration permet aux membres du groupe « netgrp » d’exécuter n’importe quelle commande en tant qu’utilisateur et membres du groupe « admin » pour exécuter n’importe quelle commande en tant qu’utilisateur sans nécessiter de mot de passe.

Étape 6 : Garantir la disponibilité du service LLDP

Pour vous assurer que le service LLDP est disponible sur votre serveur terminal, procédez comme suit :

Vérifiez si le service LLDP est en cours d’exécution :

sudo systemctl status lldpd

Vous devez voir une sortie similaire à ce qui suit si le service est en cours d’exécution :

lldpd.service - LLDP daemon
   Loaded: loaded (/lib/systemd/system/lldpd.service; enabled; vendor preset: disabled)
   Active: active (running) since Thu 2023-09-14 19:10:40 UTC; 3 months 25 days ago
     Docs: man:lldpd(8)
 Main PID: 926 (lldpd)
    Tasks: 2 (limit: 9495)
   Memory: 1.2M
   CGroup: /system.slice/lldpd.service
           ├─926 lldpd: monitor.
           └─992 lldpd: 3 neighbors.
Notice: journal has been rotated since unit was started, output may be incomplete.

Si le service n’est pas actif (en cours d’exécution), démarrez le service :

sudo systemctl start lldpd

Activez le service pour démarrer au redémarrage :

sudo systemctl enable lldpd

Note

Veillez à effectuer ces étapes pour vous assurer que le service LLDP est toujours disponible et démarre automatiquement lors du redémarrage.

Étape 7 : Vérification de la date/heure système

Vérifiez que la date/heure système est correctement définie et que le fuseau horaire du serveur terminal est au format UTC.

Vérifiez le paramètre de fuseau horaire :

Pour vérifier le paramètre de fuseau horaire actuel :

ogcli get system/timezone

Définissez le fuseau horaire sur UTC :

Si le fuseau horaire n’est pas défini sur UTC, vous pouvez le définir à l’aide de :

ogcli update system/timezone timezone=\"UTC\"

Vérifiez la date/heure actuelles :

Vérifiez la date et l’heure actuelles :

date

Corrigez la date/heure si elle est incorrecte :

Si la date/heure est incorrecte, vous pouvez la corriger à l’aide de :

ogcli replace system/time
Reading information from stdin. Press Ctrl-D to submit and Ctrl-C to cancel.
time="<CURRENT_DATE_TIME>"

Paramètres :

Nom du paramètre Descriptif
CURRENT_DATE_TIME Date et heure actuelles dans le format hh:mm MMM DD, AAAA

Note

Assurez-vous que la date/heure du système est exacte pour éviter tout problème lié aux applications ou aux services qui s’y appuient.

Étape 8 : Étiquetage des ports Terminal Server (s’ils sont manquants/incorrects)

Pour étiqueter les ports Terminal Server, utilisez la commande suivante :

ogcli update port "port-<PORT_#>"  label=\"<NEW_NAME>\" <PORT_#>

Paramètres :

Nom du paramètre Descriptif
NEW_NAME Nom de l’étiquette de port
PORT_ # Numéro de port du serveur terminal

Étape 9 : Paramètres requis pour les connexions série PURE Array

Les baies de stockage Pure achetées avant 2024 ont des contrôleurs de révision R3 qui utilisent des câbles de console rollover et nécessitent les commandes personnalisées pour la connexion au port série ci-dessous :

Contrôleurs R3 de stockage pur :

ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X1"' <PORT_#>	Pure Storage Controller console

Les appliances Pure Storage plus récentes et les systèmes mis à niveau de R3 vers R4 passeront à l'utilisation de câbles de console croisés avec les paramètres mis à jour ci-dessous :

Contrôleurs R4 de stockage pur :

ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X2"' <PORT_#>	Pure Storage Controller console

Paramètres :

Nom du paramètre Descriptif
PORT_ # Numéro de port du serveur terminal

Ces commandes définissent le taux de baud et le pinout pour la connexion à la console Pure Storage Controller.

Note

Tous les autres paramètres de configuration de port Terminal Server doivent rester identiques et fonctionner par défaut avec un câble de console RJ45 direct.

Étape 10 : Vérification des paramètres

Pour vérifier les paramètres de configuration, exécutez les commandes suivantes :

ping <PE1_IP> -c 3  # Ping test to PE1 //TS subnet +2
ping <PE2_IP> -c 3  # Ping test to PE2 //TS subnet +2
ogcli get conns     # Verify NET1, NET2, NET3 Removed
ogcli get users     # Verify support admin user
ogcli get static_routes  # Ensure there are no static routes
ip r                # Verify only interface routes
ip a                # Verify loopback, NET1, NET2
date                # Check current date/time
pmshell             # Check ports labelled

sudo lldpctl
sudo lldpcli show neighbors  # Check LLDP neighbors - should show data from NET1 and NET2

Note

Vérifiez que les voisins LLDP sont conformes aux attentes, ce qui indique des connexions réussies à PE1 et PE2.

Exemple de sortie des voisins LLDP :

-------------------------------------------------------------------------------
LLDP neighbors:
-------------------------------------------------------------------------------
Interface:    net2, via: LLDP, RID: 2, Time: 0 day, 20:28:36
  Chassis:
    ChassisID:    mac 12:00:00:00:00:85
    SysName:      austx502xh1.els-an.att.net
    SysDescr:     7.7.2, S9700-53DX-R8
    Capability:   Router, on
  Port:
    PortID:       ifname TenGigE0/0/0/0/3
    PortDescr:    GE10_Bundle-Ether83_austx4511ts1_net2_net2_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
    TTL:          120
-------------------------------------------------------------------------------
Interface:    net1, via: LLDP, RID: 1, Time: 0 day, 20:28:36
  Chassis:
    ChassisID:    mac 12:00:00:00:00:05
    SysName:      austx501xh1.els-an.att.net
    SysDescr:     7.7.2, S9700-53DX-R8
    Capability:   Router, on
  Port:
    PortID:       ifname TenGigE0/0/0/0/3
    PortDescr:    GE10_Bundle-Ether83_austx4511ts1_net1_net1_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
    TTL:          120
-------------------------------------------------------------------------------

Note

Vérifiez que la sortie correspond à vos attentes et que toutes les configurations sont correctes.

Déterminer s’il faut activer SafeMode sur les tableaux de stockage

Les tableaux de stockage pure prennent en charge une fonctionnalité appelée SafeMode, conçue pour vous protéger contre les attaques par ransomware et d’autres activités malveillantes. Lorsqu’ils sont activés, les instantanés de volumes sont créés périodiquement qui ne peuvent pas être entièrement supprimés ou modifiés pendant une période de rétention configurable. L’activation de SafeMode offre une protection contre la perte de données, mais utilise également davantage de capacité de stockage sur le tableau.

La plateforme Opérateur Nexus prend en charge l'activation de SafeMode sur les tableaux de stockage. Les volumes sont soumis à sa protection tant que les groupes de protection par défaut incluent au moins un avec SafeMode activé. Toutefois, elle n’interagit pas directement avec les instantanés générés et vous devez travailler avec votre représentant de support Pure si vous devez récupérer des données à partir d’un instantané.

Par défaut, SafeMode est activé sur les tableaux de stockage pure via un groupe de protection par défaut. Si vous souhaitez le désactiver, vous pouvez le faire en supprimant ce groupe de protection par défaut. Si vous souhaitez activer SafeMode avec des paramètres de rétention ou de fréquence d’instantané différents, vous pouvez le remplacer par un nouveau groupe de protection compatible SafeMode avec vos paramètres souhaités.

Pour plus d’informations sur SafeMode et ses implications, consultez la documentation Pure Storage (connexion requise). Pour plus d’informations sur SafeMode et sa configuration, contactez votre représentant du support Pure.

Configurer le premier tableau de stockage

  1. L’opérateur doit installer le matériel du tableau de stockage tel que spécifié par le BOM et par l'élévation du rack au sein du rack d'agrégation.
  2. L’opérateur doit fournir au technicien du tableau de stockage des informations afin que le technicien du tableau de stockage arrive sur site pour configurer l’appliance.
  3. Données spécifiques à l’emplacement requises partagées avec le technicien du tableau de stockage :
    • Nom du client :
    • Date d’inspection physique :
    • Numéro de série du châssis :
    • Nom d’hôte de la baie de stockage :
    • Code CLLI (identificateur d’emplacement du langage commun) :
    • Adresse d’installation :
    • Emplacement FIC/Rack/Grid :
  4. Données fournies à l’opérateur et partagées avec le technicien du tableau de stockage, qui seront communes à toutes les installations :
    • Niveau de code de pureté : reportez-vous aux versions de Purity prises en charge
    • Mode sans échec : reportez-vous à déterminer s’il faut activer SafeMode sur les tableaux de stockage
    • Fuseau horaire du tableau : UTC
    • Adresse IP du serveur DNS (Système de noms de domaine) : non définie par opérateur lors de l’installation
    • Suffixe de domaine DNS : non défini par opérateur lors de l’installation
    • Adresse IP du serveur NTP (protocole de temps réseau) ou nom de domaine complet : non défini par l’opérateur lors de l’installation
    • Syslog Primary : non défini par opérateur lors de l’installation
    • Syslog Secondary : non défini par opérateur lors de l’installation
    • Adresse IP de la passerelle SMTP ou nom de domaine complet : non défini par l’opérateur lors de l’installation
    • Nom de domaine de l’expéditeur de l’e-mail : nom de domaine de l’expéditeur de l’e-mail (example.com)
    • Adresses e-mail à alerter : non définies par l’opérateur lors de l’installation
    • Serveur proxy et port : non défini par opérateur lors de l’installation
    • Gestion : Interface virtuelle
      • Adresse IP : 172.27.255.200
      • Passerelle : non définie par l’opérateur lors de la configuration
      • Masque de sous-réseau : 255.255.255.0
      • MTU : 1500
      • Bond : non défini par l’opérateur lors de l’installation
    • Gestion : Contrôleur 0
      • Adresse IP : 172.27.255.254
      • Passerelle : non définie par l’opérateur lors de la configuration
      • Masque de sous-réseau : 255.255.255.0
      • MTU : 1500
      • Bond : non défini par l’opérateur lors de l’installation
    • Gestion : Contrôleur 1
      • Adresse IP : 172.27.255.253
      • Passerelle : non définie par l’opérateur lors de la configuration
      • Masque de sous-réseau : 255.255.255.0
      • MTU : 1500
      • Bond : non défini par l’opérateur lors de l’installation
    • ct0.eth10 : non défini par opérateur lors de l’installation
    • ct0.eth11 : non défini par l’opérateur lors de l’installation
    • ct0.eth18 : non défini par opérateur lors de l’installation
    • ct0.eth19 : non défini par opérateur lors de l’installation
    • ct1.eth10 : non défini par opérateur lors de l’installation
    • ct1.eth11 : non défini par l’opérateur lors de l’installation
    • ct1.eth18 : non défini par opérateur lors de l’installation
    • ct1.eth19 : non défini par l’opérateur lors de l’installation
    • Pure Tunable à être appliqué :
      • puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";
      • puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";
      • puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";
      • puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";
      • puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";

(Facultatif) Configurer le deuxième tableau de stockage

Note

Cette section est facultative. Vous devez l’exécuter uniquement si vous déployez une instance Nexus d’opérateur Azure avec deux appliances de stockage. Pour plus d’informations, y compris les restrictions sur le matériel pris en charge, consultez Azure Operator Nexus plusieurs appliances de stockage.

  1. L’opérateur doit installer le matériel du tableau de stockage tel que spécifié par le BOM et par l'élévation du rack au sein du rack d'agrégation.
  2. L’opérateur doit fournir au technicien du tableau de stockage des informations afin que le technicien du tableau de stockage arrive sur site pour configurer l’appliance.
  3. Données spécifiques à l’emplacement requises partagées avec le technicien du tableau de stockage :
    • Nom du client :
    • Date d’inspection physique :
    • Numéro de série du châssis :
    • Nom d’hôte de la baie de stockage :
    • Code CLLI (identificateur d’emplacement du langage commun) :
    • Adresse d’installation :
    • Emplacement FIC/Rack/Grid :
  4. Données fournies à l’opérateur et partagées avec le technicien du tableau de stockage, qui seront communes à toutes les installations :
    • Niveau de code de pureté : reportez-vous aux versions de Purity prises en charge
    • Mode sans échec : reportez-vous à déterminer s’il faut activer SafeMode sur les tableaux de stockage
    • Fuseau horaire du tableau : UTC
    • Adresse IP du serveur DNS (Système de noms de domaine) : non définie par opérateur lors de l’installation
    • Suffixe de domaine DNS : non défini par opérateur lors de l’installation
    • Adresse IP du serveur NTP (protocole de temps réseau) ou nom de domaine complet : non défini par l’opérateur lors de l’installation
    • Syslog Primary : non défini par opérateur lors de l’installation
    • Syslog Secondary : non défini par opérateur lors de l’installation
    • Adresse IP de la passerelle SMTP ou nom de domaine complet : non défini par l’opérateur lors de l’installation
    • Nom de domaine de l’expéditeur de l’e-mail : nom de domaine de l’expéditeur de l’e-mail (example.com)
    • Adresses e-mail à alerter : non définies par l’opérateur lors de l’installation
    • Serveur proxy et port : non défini par opérateur lors de l’installation
    • Gestion : Interface virtuelle
      • Adresse IP : 172.27.255.201
      • Passerelle : non définie par l’opérateur lors de la configuration
      • Masque de sous-réseau : 255.255.255.0
      • MTU : 1500
      • Bond : non défini par l’opérateur lors de l’installation
    • Gestion : Contrôleur 0
      • Adresse IP : 172.27.255.251
      • Passerelle : non définie par l’opérateur lors de la configuration
      • Masque de sous-réseau : 255.255.255.0
      • MTU : 1500
      • Bond : non défini par l’opérateur lors de l’installation
    • Gestion : Contrôleur 1
      • Adresse IP : 172.27.255.252
      • Passerelle : non définie par l’opérateur lors de la configuration
      • Masque de sous-réseau : 255.255.255.0
      • MTU : 1500
      • Bond : non défini par l’opérateur lors de l’installation
    • ct0.eth10 : non défini par opérateur lors de l’installation
    • ct0.eth11 : non défini par l’opérateur lors de l’installation
    • ct0.eth18 : non défini par opérateur lors de l’installation
    • ct0.eth19 : non défini par opérateur lors de l’installation
    • ct1.eth10 : non défini par opérateur lors de l’installation
    • ct1.eth11 : non défini par l’opérateur lors de l’installation
    • ct1.eth18 : non défini par opérateur lors de l’installation
    • ct1.eth19 : non défini par l’opérateur lors de l’installation
    • Pure Tunable à être appliqué :
      • puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";
      • puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";
      • puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";
      • puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";
      • puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";

Attribution d'adresse IP iDRAC

Avant de déployer le cluster Nexus, il est préférable à l’opérateur de définir les adresses IP iDRAC lors de l’organisation des racks matériels. Voici comment mapper des serveurs à des adresses IP :

  • Affectez des adresses IP en fonction de la position de chaque serveur dans le rack.
  • Utilisez le quatrième bloc /24 du sous-réseau /19 alloué pour Fabric.
  • Commencez à affecter des adresses IP du serveur inférieur vers le haut dans chaque rack, à compter de 0,11.
  • Continuez à affecter des adresses IP dans la séquence au premier serveur au bas du rack suivant.

Example

Plage IP : 10.1.0.0-10.1.31.255 – le sous-réseau iDRAC du quatrième /24 est 10.1.3.0/24.

Rack Serveur ADRESSE IP iDRAC
Rack 1 Travailleur 1 10.1.3.11/24
Rack 1 Travailleur 2 10.1.3.12/24
Rack 1 Travailleur 3 10.1.3.13/24
Rack 1 Travailleur 4 10.1.3.14/24
Rack 1 Travailleur 5 10.1.3.15/24
Rack 1 Worker 6 10.1.3.16/24
Rack 1 Worker 7 10.1.3.17/24
Rack 1 Worker 8 10.1.3.18/24
Rack 1 Contrôleur 1 10.1.3.19/24
Rack 1 Contrôleur 2 10.1.3.20/24
Rack 2 Worker 1 10.1.3.21/24
Rack 2 Worker 2 10.1.3.22/24
Rack 2 Travailleur 3 10.1.3.23/24
Rack 2 Travailleur 4 10.1.3.24/24
Rack 2 Travailleur 5 10.1.3.25/24
Rack 2 Worker 6 10.1.3.26/24
Rack 2 Worker 7 10.1.3.27/24
Rack 2 Worker 8 10.1.3.28/24
Rack 2 Contrôleur 1 10.1.3.29/24
Rack 2 Contrôleur 2 10.1.3.30/24
Rack 3 Travailleur 1 10.1.3.31/24
Rack 3 Worker 2 10.1.3.32/24
Rack 3 Travailleur 3 10.1.3.33/24
Rack 3 Travailleur 4 10.1.3.34/24
Rack 3 Travailleur 5 10.1.3.35/24
Rack 3 Worker 6 10.1.3.36/24
Rack 3 Worker 7 10.1.3.37/24
Rack 3 Worker 8 10.1.3.38/24
Rack 3 Contrôleur 1 10.1.3.39/24
Rack 3 Contrôleur 2 10.1.3.40/24
Rack 4 Travailleur 1 10.1.3.41/24
Rack 4 Travailleur 2 10.1.3.42/24
Rack 4 Travailleur 3 10.1.3.43/24
Rack 4 Travailleur 4 10.1.3.44/24
Rack 4 Travailleur 5 10.1.3.45/24
Rack 4 Worker 6 10.1.3.46/24
Rack 4 Worker 7 10.1.3.47/24
Rack 4 Worker 8 10.1.3.48/24
Rack 4 Contrôleur 1 10.1.3.49/24
Rack 4 Contrôleur 2 10.1.3.50/24

Exemple de conception de trois instances locales à partir de la même paire NFC/CM, à l’aide de réseaux séquentiels /19 dans un /16 :

Instance Plage de réseau Sous-réseau iDRAC
Instance 1 10.1.0.0-10.1.31.255 10.1.3.0/24
Instance 2 10.1.32.0-10.1.63.255 10.1.35.0/24
Instance 3 10.1.64.0-10.1.95.255 10.1.67.0/24

Configuration par défaut pour d’autres appareils installés

  • Tous les appareils de l'infrastructure réseau (à l'exception du serveur terminal) sont définis sur le mode ZTP.
  • Les serveurs ont des paramètres de fabrique par défaut, y compris les paramètres BIOS minimaux.

En guise de bonne pratique, les versions de BIOS et de microprogramme suivantes doivent être installées sur les serveurs avant le déploiement, en fonction de la version d’exécution et du boM sélectionnés. Pour référence, la version N est la dernière version du runtime disponible. N-1 et N-2 sont les versions d’exécution prises en charge précédentes.

Version d'exécution du Nexus Cluster N

BOM 1.7.3
Composant Version
BIOS 1.18.1
Contrôleur de tableau de stockage (PERC H755) 52.30.0-6115
iDRAC 7.20.30.55
Firmware SEP passif pour fond de panier de stockage sans expanseur (15G Non-Expander) 7.10
CPLD (Dispositif Logique Programmable Complexe) 1.1.1
Adaptateur Mellanox ConnectX-6 DX 22.41.10.00
NVIDIA ConnectX-6 Lx 2x 25G SFP28 26.41.10.00
Broadcom 5720 Quad Port 1GbE adaptateur BASE-T 23.21.6
BOM 2.0.0
Composant Version
BIOS 2.7.5
Contrôleur de tableau de stockage (PERC H755) 52.30.0-6115
iDRAC 7.20.30.55
Firmware de l'extenseur SAS pour backplane (R760) 1.61
Microprogramme de backplane de stockage sans expandeur (R660) 7.10
CPLD (Dispositif Logique Programmable Complexe) 1.2.6
Adaptateur Mellanox ConnectX-6 DX 22.41.10.00
NVIDIA ConnectX-6 Lx 2x 25G SFP28 26.41.10.00
Broadcom 5720 Quad Port 1GbE adaptateur BASE-T 23.21.6

Version N-1 de l'environnement d'exécution du Nexus Cluster

BOM 1.7.3
Composant Version
BIOS 1.17.2
Contrôleur de tableau de stockage (PERC H755) 52.26.0-5179
iDRAC 7.20.30.00
Firmware SEP passif pour fond de panier de stockage sans expanseur (15G Non-Expander) 7.10
CPLD (Dispositif Logique Programmable Complexe) 1.1.1
Adaptateur Mellanox ConnectX-6 DX 22.41.10.00
NVIDIA ConnectX-6 Lx 2x 25G SFP28 26.41.10.00
Broadcom 5720 Quad Port 1GbE adaptateur BASE-T 23.21.6
BOM 2.0.0
Composant Version
BIOS 2.6.3
Contrôleur de tableau de stockage (PERC H755) 52.26.0-5179
iDRAC 7.20.30.00
Firmware de l'extenseur SAS pour backplane (R760) 1.61
Microprogramme de backplane de stockage sans expandeur (R660) 7.10
CPLD (Dispositif Logique Programmable Complexe) 1.2.6
Adaptateur Mellanox ConnectX-6 DX 22.41.10.00
NVIDIA ConnectX-6 Lx 2x 25G SFP28 26.41.10.00
Broadcom 5720 Quad Port 1GbE adaptateur BASE-T 23.21.6

Version d'exécution N-2 de Nexus Cluster

BOM 1.7.3
Composant Version
BIOS 1.15.2
Contrôleur de tableau de stockage (PERC H755) 52.26.0-5179
iDRAC 7.10.90.00
Firmware SEP passif pour fond de panier de stockage sans expanseur (15G Non-Expander) 7.10
CPLD (Dispositif Logique Programmable Complexe) 1.1.1
Adaptateur Mellanox ConnectX-6 DX 22.41.10.00
NVIDIA ConnectX-6 Lx 2x 25G SFP28 26.41.10.00
Broadcom 5720 Quad Port 1GbE adaptateur BASE-T 22.91.5
BOM 2.0.0
Composant Version
BIOS 2.4.4
Contrôleur de tableau de stockage (PERC H755) 52.26.0-5179
iDRAC 7.10.90.00
Firmware de l'extenseur SAS pour backplane (R760) 1.61
Microprogramme de backplane de stockage sans expandeur (R660) 7.10
CPLD (Dispositif Logique Programmable Complexe) 1.2.6
Adaptateur Mellanox ConnectX-6 DX 22.41.10.00
NVIDIA ConnectX-6 Lx 2x 25G SFP28 26.41.10.00
Broadcom 5720 Quad Port 1GbE adaptateur BASE-T 22.91.5

Règles de pare-feu entre Azure et Nexus Cluster.

Pour établir des règles de pare-feu entre Azure et le cluster Nexus, l’opérateur doit ouvrir les ports spécifiés. Cela garantit une communication et une connectivité appropriées pour les services requis à l’aide du protocole TCP (Transmission Control Protocol) et UDP (User Datagram Protocol).

S.No Origine Destination Port (TCP/UDP) Bidirectionnel Objectif de la règle
1 réseau virtuel Azure Cluster 22 TCP Non Depuis le sous-réseau CM, utiliser SSH vers des serveurs sous-cloud.
2 réseau virtuel Azure Cluster 443 TCP Non Pour accéder aux nœuds sous-cloud iDRAC
3 réseau virtuel Azure Cluster TCP 5900 Non Gnmi
4 réseau virtuel Azure Cluster TCP 6030 Non Certificats Gnmi
5 réseau virtuel Azure Cluster TCP 6443 Non Pour accéder au cluster K8S undercloud
6 Cluster réseau virtuel Azure TCP 8080 Oui Pour le montage d’une image ISO dans iDRAC, mise à niveau du runtime NNF
7 Cluster réseau virtuel Azure 3128 TCP Non Proxy pour se connecter à des points de terminaison Azure globaux
8 Cluster réseau virtuel Azure 53 TCP et UDP Non DNS
9 Cluster réseau virtuel Azure 123 UDP Non NTP
10 Cluster réseau virtuel Azure TCP 8888 Non Connexion au service web Cluster Manager
11 Cluster réseau virtuel Azure 514 TCP et UDP Non Pour accéder aux logs de l'undercloud depuis le Gestionnaire de cluster

Installer des extensions CLI et se connecter à votre abonnement Azure

Installez la dernière version des extensions CLI nécessaires.

Connexion à l’abonnement Azure

  az login
  az account set --subscription <SUBSCRIPTION_ID>
  az account show

Note

Le compte doit disposer des autorisations nécessaires pour lire/écrire/publier dans l’abonnement