Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les opérateurs doivent remplir les conditions préalables avant le déploiement du logiciel de plateforme Opérateur Nexus. Certaines de ces mesures peuvent prendre des périodes prolongées, de sorte qu’un examen de ces conditions préalables peut s’avérer bénéfique.
Dans les déploiements suivants d’instances Nexus d’opérateur, vous pouvez passer à la création de l’infrastructure réseau locale et du cluster.
Conditions préalables pour Azure
Lorsque vous déployez l’opérateur Nexus pour la première fois ou dans une nouvelle région, vous devez d’abord créer un contrôleur Network Fabric, puis un gestionnaire de cluster tel que spécifié dans la page Conditions préalables de l’opérateur Azure. En outre, les tâches suivantes doivent être effectuées :
- Configurer des utilisateurs, des stratégies, des autorisations et RBAC
- Configurez des groupes de ressources pour placer et regrouper des ressources de manière logique qui seront créées pour la plateforme Opérateur Nexus.
- Établir une connectivité ExpressRoute de votre WAN à une région Azure
- Pour activer Microsoft Defender pour Endpoint sur des machines bare metal locales, vous devez avoir sélectionné un plan Defender pour serveurs dans votre abonnement Operator Nexus avant le déploiement. Informations supplémentaires disponibles sur la page Defender pour Cloud Security .
Conditions préalables sur site
Lors du déploiement d’une instance locale d’Opérateur Nexus dans votre centre de données, différentes équipes sont probablement impliquées dans l’exécution de différents rôles. Les tâches suivantes doivent être effectuées avec précision pour garantir une installation réussie du logiciel de plateforme.
Configuration matérielle physique
Un opérateur qui souhaite tirer parti du service Opérateur Nexus doit acheter, installer, configurer et exploiter des ressources matérielles. Cette section du document décrit les composants et les efforts nécessaires pour acheter et implémenter les systèmes matériels appropriés. Cette section décrit la facture de matériaux, le diagramme d’élévations de rack et le diagramme de câblage, ainsi que les étapes requises pour assembler le matériel.
Utilisation de la facture de matériaux (BOM)
Pour garantir une expérience d’opérateur fluide, l’opérateur Nexus a développé un boM pour l’acquisition matérielle nécessaire pour le service. Ce boM est une liste complète des composants et quantités nécessaires à l’implémentation de l’environnement pour une implémentation et une maintenance réussies de l’instance locale. Le boM est structuré pour fournir à l’opérateur une série d’unités de conservation de stock (SKU) qui peuvent être ordonnées auprès des fournisseurs de matériel. Les références SKU sont abordées plus loin dans le document.
Utilisation du diagramme d’élévation
Le diagramme d’élévation de rack est une référence graphique qui montre comment les serveurs et d’autres composants s’intègrent dans les racks assemblés et configurés. Le diagramme d’élévation de rack est fourni dans le cadre des instructions de construction globales. Il aidera le personnel des opérateurs à configurer et installer correctement tous les composants matériels nécessaires pour l’opération de service.
Diagramme de câblage
Les diagrammes de câblage sont des représentations graphiques des connexions de câble requises pour fournir des services réseau aux composants installés dans les racks. Suivre le diagramme de câblage garantit une mise en œuvre appropriée des différents composants dans la construction.
Comment commander en fonction de la référence SKU
Définition de référence SKU
Une référence SKU est une méthode de gestion et de suivi de l’inventaire qui permet de regrouper plusieurs composants en un seul indicateur. Une référence SKU permet à un opérateur d’ordonner tous les composants nécessaires via la spécification d’un numéro de référence SKU. La référence SKU accélère l’interaction entre l’opérateur et le fournisseur tout en réduisant les erreurs de commande en raison de listes de parties complexes.
Placement d’une commande basée sur une référence SKU
L’opérateur Nexus a créé une série de références SKU avec des fournisseurs tels que Dell, Pure Storage et Arista que l’opérateur peut référencer lorsqu’il passe une commande. Ainsi, un opérateur doit simplement passer une commande en fonction des informations de référence SKU fournies par l’opérateur Nexus au fournisseur pour recevoir la liste des parties correctes pour la build.
Comment créer l’empreinte matérielle physique
La construction matérielle physique est exécutée par une série d’étapes, qui seront détaillées dans cette section. Il existe trois étapes préalables avant l’exécution de la build. Cette section aborde également les hypothèses relatives aux compétences des employés de l'opérateur pour réaliser l'assemblage.
Commande et réception de la référence SKU de l’infrastructure matérielle spécifique
L’ordre de la référence SKU appropriée et la livraison du matériel sur le site doivent se produire avant le début de la construction. Le temps approprié doit être autorisé pour cette étape. Nous recommandons à l’opérateur de communiquer avec le fournisseur du matériel dès le début du processus pour garantir et comprendre les délais de livraison.
Préparation du site
Le site d’installation peut prendre en charge l’infrastructure matérielle du point de vue de l’espace, de l’alimentation et du réseau. Les exigences de site spécifiques seront définies par la référence SKU achetée pour le site. Cette étape peut être effectuée une fois la commande passée et avant la réception de la référence SKU.
Planification des ressources
Le processus de construction nécessite plusieurs membres du personnel différents pour réaliser la construction, comme les ingénieurs pour fournir l’alimentation, l’accès réseau et le câblage, le personnel des systèmes pour assembler les racks, les commutateurs et les serveurs, entre autres. Pour vous assurer que la build est effectuée en temps opportun, nous vous recommandons de planifier ces membres d’équipe à l’avance en fonction du calendrier de livraison.
Hypothèses relatives à la création de compétences du personnel
Le personnel exécutant la build doit être expérimenté lors de l’assemblage de matériel de systèmes tels que des racks, des commutateurs, des pdUs et des serveurs. Les instructions fournies décrivent les étapes du processus, tout en référençant les élévations de rack et les diagrammes de câblage.
Vue d’ensemble du processus de compilation
Si la préparation du site est terminée et validée pour prendre en charge le SKU commandé, le processus de génération se produit selon les étapes suivantes :
- Assemblez les racks en fonction des niveaux de rack du SKU. Des instructions d’assemblage de rack spécifiques seront fournies par le fabricant du rack.
- Une fois les racks assemblés, installez les appareils de structure dans les racks conformément au diagramme d’élévation.
- Câblez les appareils de réseau en connectant les interfaces réseau selon le schéma de câblage.
- Assemblez et installez les serveurs par diagramme d’élévation de rack.
- Assemblez et installez le périphérique de stockage conformément au schéma d’élévation de rack.
- Câblez le serveur et les périphériques de stockage en connectant les interfaces réseau par diagramme de câblage.
- Alimentation du câble à partir de chaque appareil.
- Passez en revue/validez la build via les listes de contrôle fournies par l’opérateur Nexus et d’autres fournisseurs.
Comment inspecter visuellement l’installation matérielle physique
Il est recommandé d’étiqueter tous les câbles suivant les normes ANSI/TIA 606, ou les normes de l’opérateur, pendant le processus d'installation. Le processus de génération doit également créer un mappage inversé pour le câblage à partir d’un port de commutateur vers une connexion à l'extrémité distante. Le mappage inverse peut être comparé au diagramme de câblage pour valider l’installation.
Configuration du serveur Terminal Server et du tableau de stockage
Maintenant que l’installation physique et la validation sont terminées, les étapes suivantes impliquent la configuration des paramètres par défaut requis avant l’installation du logiciel de plateforme.
Configurer le serveur de terminaux
Note
Ce guide a été validé avec le microprogramme Opengear version 24.11.2, qui a été mis à niveau à partir de la version 22.06.0 et est pris en charge avec le runtime Nexus Network Fabric version 5.0.0.
Terminal Server a été déployé et configuré comme suit :
- Terminal Server est configuré pour la gestion hors bande
- Les identifiants d'authentification ont été configurés
- Le client DHCP est activé sur le port de gestion hors bande
- L’accès HTTP est activé
- L’interface Terminal Server est connectée aux routeurs PE sur site des opérateurs et configurée avec les adresses IP et les informations d’identification.
- Terminal Server est accessible à partir du VPN de gestion
- Pour mettre à niveau le serveur terminal vers le système d’exploitation version 24.11.2 , consultez
- Pour configurer une session unique et un délai d’expiration pour la console série , reportez-vous à
Étape 1 : Configuration du nom d’hôte
Pour configurer le nom d’hôte de votre serveur terminal, procédez comme suit :
Utilisez la commande suivante dans l’interface CLI :
sudo ogcli update system/hostname hostname=\"<TS_HOSTNAME>\"
Paramètres :
| Nom du paramètre | Descriptif |
|---|---|
| TS_HOSTNAME | Nom d’hôte du serveur terminal |
Pour plus d’informations, reportez-vous à la référence CLI .
Étape 2 : Configuration du réseau
Pour configurer les paramètres réseau, procédez comme suit :
Exécutez les commandes suivantes dans l’interface CLI :
sudo ogcli create conn << 'END'
description="PE1 to TS NET1"
mode="static"
ipv4_static_settings.address="<TS_NET1_IP>"
ipv4_static_settings.netmask="<TS_NET1_NETMASK>"
ipv4_static_settings.gateway="<TS_NET1_GW>"
physif="net1"
END
sudo ogcli create conn << 'END'
description="PE2 to TS NET2"
mode="static"
ipv4_static_settings.address="<TS_NET2_IP>"
ipv4_static_settings.netmask="<TS_NET2_NETMASK>"
ipv4_static_settings.gateway="<TS_NET2_GW>"
physif="net2"
END
Paramètres :
| Nom du paramètre | Descriptif |
|---|---|
| TS_NET1_IP | IP PE1 du serveur terminal vers TS NET1 |
| TS_NET1_NETMASK | Masque de sous-réseau du serveur terminal PE1 vers TS NET1 |
| TS_NET1_GW | Passerelle du serveur terminal PE1 vers TS NET1 |
| TS_NET2_IP | Serveur terminal PE2 à IP TS NET2 |
| TS_NET2_NETMASK | Masque de réseau du serveur terminal PE2 vers TS NET2 |
| TS_NET2_GW | Passerelle du serveur terminal PE2 vers TS NET2 |
Note
Veillez à remplacer ces paramètres par des valeurs appropriées.
Étape 3 : Effacement de l’interface net3 (le cas échéant)
Pour effacer l’interface net3, procédez comme suit :
- Recherchez une interface configurée sur l’interface physique net3 et « Adresse statique IPv4 par défaut » à l’aide de la commande suivante :
ogcli get conns
description="Default IPv4 Static Address"
name="<TS_NET3_CONN_NAME>"
physif="net3"
Paramètres :
| Nom du paramètre | Descriptif |
|---|---|
| TS_NET3_CONN_NAME | Nom de la connexion NET3 du serveur Terminal Server |
- Supprimez l’interface s’il existe :
ogcli delete conn "<TS_NET3_CONN_NAME>"
Note
Veillez à remplacer ces paramètres par des valeurs appropriées.
Étape 4 : Configuration de l’utilisateur administrateur du support technique
Pour configurer l’utilisateur administrateur de support, procédez comme suit :
- Pour chaque utilisateur, exécutez la commande suivante dans l’interface CLI :
ogcli create user << 'END'
description="Support Admin User"
enabled=true
groups[0]="admin"
groups[1]="netgrp"
password="<SUPPORT_PWD>"
username="<SUPPORT_USER>"
END
Paramètres :
| Nom du paramètre | Descriptif |
|---|---|
| SUPPORT_USER | Utilisateur administrateur de support |
| SUPPORT_PWD | Assistance pour le mot de passe de l'utilisateur admin |
Note
Veillez à remplacer ces paramètres par des valeurs appropriées.
Étape 5 : Ajout de la prise en charge sudo pour les utilisateurs administrateurs
Pour ajouter la prise en charge sudo pour les utilisateurs administrateurs, procédez comme suit :
- Ouvrez le fichier de configuration sudoers :
sudo vi /etc/sudoers.d/opengear
- Ajoutez les lignes suivantes pour accorder l’accès sudo :
%netgrp ALL=(ALL) ALL
%admin ALL=(ALL) NOPASSWD: ALL
Note
Veillez à enregistrer les modifications après avoir modifié le fichier.
Cette configuration permet aux membres du groupe « netgrp » d’exécuter n’importe quelle commande en tant qu’utilisateur et membres du groupe « admin » pour exécuter n’importe quelle commande en tant qu’utilisateur sans nécessiter de mot de passe.
Étape 6 : Garantir la disponibilité du service LLDP
Pour vous assurer que le service LLDP est disponible sur votre serveur terminal, procédez comme suit :
Vérifiez si le service LLDP est en cours d’exécution :
sudo systemctl status lldpd
Vous devez voir une sortie similaire à ce qui suit si le service est en cours d’exécution :
lldpd.service - LLDP daemon
Loaded: loaded (/lib/systemd/system/lldpd.service; enabled; vendor preset: disabled)
Active: active (running) since Thu 2023-09-14 19:10:40 UTC; 3 months 25 days ago
Docs: man:lldpd(8)
Main PID: 926 (lldpd)
Tasks: 2 (limit: 9495)
Memory: 1.2M
CGroup: /system.slice/lldpd.service
├─926 lldpd: monitor.
└─992 lldpd: 3 neighbors.
Notice: journal has been rotated since unit was started, output may be incomplete.
Si le service n’est pas actif (en cours d’exécution), démarrez le service :
sudo systemctl start lldpd
Activez le service pour démarrer au redémarrage :
sudo systemctl enable lldpd
Note
Veillez à effectuer ces étapes pour vous assurer que le service LLDP est toujours disponible et démarre automatiquement lors du redémarrage.
Étape 7 : Vérification de la date/heure système
Vérifiez que la date/heure système est correctement définie et que le fuseau horaire du serveur terminal est au format UTC.
Vérifiez le paramètre de fuseau horaire :
Pour vérifier le paramètre de fuseau horaire actuel :
ogcli get system/timezone
Définissez le fuseau horaire sur UTC :
Si le fuseau horaire n’est pas défini sur UTC, vous pouvez le définir à l’aide de :
ogcli update system/timezone timezone=\"UTC\"
Vérifiez la date/heure actuelles :
Vérifiez la date et l’heure actuelles :
date
Corrigez la date/heure si elle est incorrecte :
Si la date/heure est incorrecte, vous pouvez la corriger à l’aide de :
ogcli replace system/time
Reading information from stdin. Press Ctrl-D to submit and Ctrl-C to cancel.
time="<CURRENT_DATE_TIME>"
Paramètres :
| Nom du paramètre | Descriptif |
|---|---|
| CURRENT_DATE_TIME | Date et heure actuelles dans le format hh:mm MMM DD, AAAA |
Note
Assurez-vous que la date/heure du système est exacte pour éviter tout problème lié aux applications ou aux services qui s’y appuient.
Étape 8 : Étiquetage des ports Terminal Server (s’ils sont manquants/incorrects)
Pour étiqueter les ports Terminal Server, utilisez la commande suivante :
ogcli update port "port-<PORT_#>" label=\"<NEW_NAME>\" <PORT_#>
Paramètres :
| Nom du paramètre | Descriptif |
|---|---|
| NEW_NAME | Nom de l’étiquette de port |
| PORT_ # | Numéro de port du serveur terminal |
Étape 9 : Paramètres requis pour les connexions série PURE Array
Les baies de stockage Pure achetées avant 2024 ont des contrôleurs de révision R3 qui utilisent des câbles de console rollover et nécessitent les commandes personnalisées pour la connexion au port série ci-dessous :
Contrôleurs R3 de stockage pur :
ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X1"' <PORT_#> Pure Storage Controller console
Les appliances Pure Storage plus récentes et les systèmes mis à niveau de R3 vers R4 passeront à l'utilisation de câbles de console croisés avec les paramètres mis à jour ci-dessous :
Contrôleurs R4 de stockage pur :
ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X2"' <PORT_#> Pure Storage Controller console
Paramètres :
| Nom du paramètre | Descriptif |
|---|---|
| PORT_ # | Numéro de port du serveur terminal |
Ces commandes définissent le taux de baud et le pinout pour la connexion à la console Pure Storage Controller.
Note
Tous les autres paramètres de configuration de port Terminal Server doivent rester identiques et fonctionner par défaut avec un câble de console RJ45 direct.
Étape 10 : Vérification des paramètres
Pour vérifier les paramètres de configuration, exécutez les commandes suivantes :
ping <PE1_IP> -c 3 # Ping test to PE1 //TS subnet +2
ping <PE2_IP> -c 3 # Ping test to PE2 //TS subnet +2
ogcli get conns # Verify NET1, NET2, NET3 Removed
ogcli get users # Verify support admin user
ogcli get static_routes # Ensure there are no static routes
ip r # Verify only interface routes
ip a # Verify loopback, NET1, NET2
date # Check current date/time
pmshell # Check ports labelled
sudo lldpctl
sudo lldpcli show neighbors # Check LLDP neighbors - should show data from NET1 and NET2
Note
Vérifiez que les voisins LLDP sont conformes aux attentes, ce qui indique des connexions réussies à PE1 et PE2.
Exemple de sortie des voisins LLDP :
-------------------------------------------------------------------------------
LLDP neighbors:
-------------------------------------------------------------------------------
Interface: net2, via: LLDP, RID: 2, Time: 0 day, 20:28:36
Chassis:
ChassisID: mac 12:00:00:00:00:85
SysName: austx502xh1.els-an.att.net
SysDescr: 7.7.2, S9700-53DX-R8
Capability: Router, on
Port:
PortID: ifname TenGigE0/0/0/0/3
PortDescr: GE10_Bundle-Ether83_austx4511ts1_net2_net2_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
TTL: 120
-------------------------------------------------------------------------------
Interface: net1, via: LLDP, RID: 1, Time: 0 day, 20:28:36
Chassis:
ChassisID: mac 12:00:00:00:00:05
SysName: austx501xh1.els-an.att.net
SysDescr: 7.7.2, S9700-53DX-R8
Capability: Router, on
Port:
PortID: ifname TenGigE0/0/0/0/3
PortDescr: GE10_Bundle-Ether83_austx4511ts1_net1_net1_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
TTL: 120
-------------------------------------------------------------------------------
Note
Vérifiez que la sortie correspond à vos attentes et que toutes les configurations sont correctes.
Déterminer s’il faut activer SafeMode sur les tableaux de stockage
Les tableaux de stockage pure prennent en charge une fonctionnalité appelée SafeMode, conçue pour vous protéger contre les attaques par ransomware et d’autres activités malveillantes. Lorsqu’ils sont activés, les instantanés de volumes sont créés périodiquement qui ne peuvent pas être entièrement supprimés ou modifiés pendant une période de rétention configurable. L’activation de SafeMode offre une protection contre la perte de données, mais utilise également davantage de capacité de stockage sur le tableau.
La plateforme Opérateur Nexus prend en charge l'activation de SafeMode sur les tableaux de stockage. Les volumes sont soumis à sa protection tant que les groupes de protection par défaut incluent au moins un avec SafeMode activé. Toutefois, elle n’interagit pas directement avec les instantanés générés et vous devez travailler avec votre représentant de support Pure si vous devez récupérer des données à partir d’un instantané.
Par défaut, SafeMode est activé sur les tableaux de stockage pure via un groupe de protection par défaut. Si vous souhaitez le désactiver, vous pouvez le faire en supprimant ce groupe de protection par défaut. Si vous souhaitez activer SafeMode avec des paramètres de rétention ou de fréquence d’instantané différents, vous pouvez le remplacer par un nouveau groupe de protection compatible SafeMode avec vos paramètres souhaités.
Pour plus d’informations sur SafeMode et ses implications, consultez la documentation Pure Storage (connexion requise). Pour plus d’informations sur SafeMode et sa configuration, contactez votre représentant du support Pure.
Configurer le premier tableau de stockage
- L’opérateur doit installer le matériel du tableau de stockage tel que spécifié par le BOM et par l'élévation du rack au sein du rack d'agrégation.
- L’opérateur doit fournir au technicien du tableau de stockage des informations afin que le technicien du tableau de stockage arrive sur site pour configurer l’appliance.
- Données spécifiques à l’emplacement requises partagées avec le technicien du tableau de stockage :
- Nom du client :
- Date d’inspection physique :
- Numéro de série du châssis :
- Nom d’hôte de la baie de stockage :
- Code CLLI (identificateur d’emplacement du langage commun) :
- Adresse d’installation :
- Emplacement FIC/Rack/Grid :
- Données fournies à l’opérateur et partagées avec le technicien du tableau de stockage, qui seront communes à toutes les installations :
- Niveau de code de pureté : reportez-vous aux versions de Purity prises en charge
- Mode sans échec : reportez-vous à déterminer s’il faut activer SafeMode sur les tableaux de stockage
- Fuseau horaire du tableau : UTC
- Adresse IP du serveur DNS (Système de noms de domaine) : non définie par opérateur lors de l’installation
- Suffixe de domaine DNS : non défini par opérateur lors de l’installation
- Adresse IP du serveur NTP (protocole de temps réseau) ou nom de domaine complet : non défini par l’opérateur lors de l’installation
- Syslog Primary : non défini par opérateur lors de l’installation
- Syslog Secondary : non défini par opérateur lors de l’installation
- Adresse IP de la passerelle SMTP ou nom de domaine complet : non défini par l’opérateur lors de l’installation
- Nom de domaine de l’expéditeur de l’e-mail : nom de domaine de l’expéditeur de l’e-mail (example.com)
- Adresses e-mail à alerter : non définies par l’opérateur lors de l’installation
- Serveur proxy et port : non défini par opérateur lors de l’installation
- Gestion : Interface virtuelle
- Adresse IP : 172.27.255.200
- Passerelle : non définie par l’opérateur lors de la configuration
- Masque de sous-réseau : 255.255.255.0
- MTU : 1500
- Bond : non défini par l’opérateur lors de l’installation
- Gestion : Contrôleur 0
- Adresse IP : 172.27.255.254
- Passerelle : non définie par l’opérateur lors de la configuration
- Masque de sous-réseau : 255.255.255.0
- MTU : 1500
- Bond : non défini par l’opérateur lors de l’installation
- Gestion : Contrôleur 1
- Adresse IP : 172.27.255.253
- Passerelle : non définie par l’opérateur lors de la configuration
- Masque de sous-réseau : 255.255.255.0
- MTU : 1500
- Bond : non défini par l’opérateur lors de l’installation
- ct0.eth10 : non défini par opérateur lors de l’installation
- ct0.eth11 : non défini par l’opérateur lors de l’installation
- ct0.eth18 : non défini par opérateur lors de l’installation
- ct0.eth19 : non défini par opérateur lors de l’installation
- ct1.eth10 : non défini par opérateur lors de l’installation
- ct1.eth11 : non défini par l’opérateur lors de l’installation
- ct1.eth18 : non défini par opérateur lors de l’installation
- ct1.eth19 : non défini par l’opérateur lors de l’installation
- Pure Tunable à être appliqué :
puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";
(Facultatif) Configurer le deuxième tableau de stockage
Note
Cette section est facultative. Vous devez l’exécuter uniquement si vous déployez une instance Nexus d’opérateur Azure avec deux appliances de stockage. Pour plus d’informations, y compris les restrictions sur le matériel pris en charge, consultez Azure Operator Nexus plusieurs appliances de stockage.
- L’opérateur doit installer le matériel du tableau de stockage tel que spécifié par le BOM et par l'élévation du rack au sein du rack d'agrégation.
- L’opérateur doit fournir au technicien du tableau de stockage des informations afin que le technicien du tableau de stockage arrive sur site pour configurer l’appliance.
- Données spécifiques à l’emplacement requises partagées avec le technicien du tableau de stockage :
- Nom du client :
- Date d’inspection physique :
- Numéro de série du châssis :
- Nom d’hôte de la baie de stockage :
- Code CLLI (identificateur d’emplacement du langage commun) :
- Adresse d’installation :
- Emplacement FIC/Rack/Grid :
- Données fournies à l’opérateur et partagées avec le technicien du tableau de stockage, qui seront communes à toutes les installations :
- Niveau de code de pureté : reportez-vous aux versions de Purity prises en charge
- Mode sans échec : reportez-vous à déterminer s’il faut activer SafeMode sur les tableaux de stockage
- Fuseau horaire du tableau : UTC
- Adresse IP du serveur DNS (Système de noms de domaine) : non définie par opérateur lors de l’installation
- Suffixe de domaine DNS : non défini par opérateur lors de l’installation
- Adresse IP du serveur NTP (protocole de temps réseau) ou nom de domaine complet : non défini par l’opérateur lors de l’installation
- Syslog Primary : non défini par opérateur lors de l’installation
- Syslog Secondary : non défini par opérateur lors de l’installation
- Adresse IP de la passerelle SMTP ou nom de domaine complet : non défini par l’opérateur lors de l’installation
- Nom de domaine de l’expéditeur de l’e-mail : nom de domaine de l’expéditeur de l’e-mail (example.com)
- Adresses e-mail à alerter : non définies par l’opérateur lors de l’installation
- Serveur proxy et port : non défini par opérateur lors de l’installation
- Gestion : Interface virtuelle
- Adresse IP : 172.27.255.201
- Passerelle : non définie par l’opérateur lors de la configuration
- Masque de sous-réseau : 255.255.255.0
- MTU : 1500
- Bond : non défini par l’opérateur lors de l’installation
- Gestion : Contrôleur 0
- Adresse IP : 172.27.255.251
- Passerelle : non définie par l’opérateur lors de la configuration
- Masque de sous-réseau : 255.255.255.0
- MTU : 1500
- Bond : non défini par l’opérateur lors de l’installation
- Gestion : Contrôleur 1
- Adresse IP : 172.27.255.252
- Passerelle : non définie par l’opérateur lors de la configuration
- Masque de sous-réseau : 255.255.255.0
- MTU : 1500
- Bond : non défini par l’opérateur lors de l’installation
- ct0.eth10 : non défini par opérateur lors de l’installation
- ct0.eth11 : non défini par l’opérateur lors de l’installation
- ct0.eth18 : non défini par opérateur lors de l’installation
- ct0.eth19 : non défini par opérateur lors de l’installation
- ct1.eth10 : non défini par opérateur lors de l’installation
- ct1.eth11 : non défini par l’opérateur lors de l’installation
- ct1.eth18 : non défini par opérateur lors de l’installation
- ct1.eth19 : non défini par l’opérateur lors de l’installation
- Pure Tunable à être appliqué :
puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";
Attribution d'adresse IP iDRAC
Avant de déployer le cluster Nexus, il est préférable à l’opérateur de définir les adresses IP iDRAC lors de l’organisation des racks matériels. Voici comment mapper des serveurs à des adresses IP :
- Affectez des adresses IP en fonction de la position de chaque serveur dans le rack.
- Utilisez le quatrième bloc /24 du sous-réseau /19 alloué pour Fabric.
- Commencez à affecter des adresses IP du serveur inférieur vers le haut dans chaque rack, à compter de 0,11.
- Continuez à affecter des adresses IP dans la séquence au premier serveur au bas du rack suivant.
Example
Plage IP : 10.1.0.0-10.1.31.255 – le sous-réseau iDRAC du quatrième /24 est 10.1.3.0/24.
| Rack | Serveur | ADRESSE IP iDRAC |
|---|---|---|
| Rack 1 | Travailleur 1 | 10.1.3.11/24 |
| Rack 1 | Travailleur 2 | 10.1.3.12/24 |
| Rack 1 | Travailleur 3 | 10.1.3.13/24 |
| Rack 1 | Travailleur 4 | 10.1.3.14/24 |
| Rack 1 | Travailleur 5 | 10.1.3.15/24 |
| Rack 1 | Worker 6 | 10.1.3.16/24 |
| Rack 1 | Worker 7 | 10.1.3.17/24 |
| Rack 1 | Worker 8 | 10.1.3.18/24 |
| Rack 1 | Contrôleur 1 | 10.1.3.19/24 |
| Rack 1 | Contrôleur 2 | 10.1.3.20/24 |
| Rack 2 | Worker 1 | 10.1.3.21/24 |
| Rack 2 | Worker 2 | 10.1.3.22/24 |
| Rack 2 | Travailleur 3 | 10.1.3.23/24 |
| Rack 2 | Travailleur 4 | 10.1.3.24/24 |
| Rack 2 | Travailleur 5 | 10.1.3.25/24 |
| Rack 2 | Worker 6 | 10.1.3.26/24 |
| Rack 2 | Worker 7 | 10.1.3.27/24 |
| Rack 2 | Worker 8 | 10.1.3.28/24 |
| Rack 2 | Contrôleur 1 | 10.1.3.29/24 |
| Rack 2 | Contrôleur 2 | 10.1.3.30/24 |
| Rack 3 | Travailleur 1 | 10.1.3.31/24 |
| Rack 3 | Worker 2 | 10.1.3.32/24 |
| Rack 3 | Travailleur 3 | 10.1.3.33/24 |
| Rack 3 | Travailleur 4 | 10.1.3.34/24 |
| Rack 3 | Travailleur 5 | 10.1.3.35/24 |
| Rack 3 | Worker 6 | 10.1.3.36/24 |
| Rack 3 | Worker 7 | 10.1.3.37/24 |
| Rack 3 | Worker 8 | 10.1.3.38/24 |
| Rack 3 | Contrôleur 1 | 10.1.3.39/24 |
| Rack 3 | Contrôleur 2 | 10.1.3.40/24 |
| Rack 4 | Travailleur 1 | 10.1.3.41/24 |
| Rack 4 | Travailleur 2 | 10.1.3.42/24 |
| Rack 4 | Travailleur 3 | 10.1.3.43/24 |
| Rack 4 | Travailleur 4 | 10.1.3.44/24 |
| Rack 4 | Travailleur 5 | 10.1.3.45/24 |
| Rack 4 | Worker 6 | 10.1.3.46/24 |
| Rack 4 | Worker 7 | 10.1.3.47/24 |
| Rack 4 | Worker 8 | 10.1.3.48/24 |
| Rack 4 | Contrôleur 1 | 10.1.3.49/24 |
| Rack 4 | Contrôleur 2 | 10.1.3.50/24 |
Exemple de conception de trois instances locales à partir de la même paire NFC/CM, à l’aide de réseaux séquentiels /19 dans un /16 :
| Instance | Plage de réseau | Sous-réseau iDRAC |
|---|---|---|
| Instance 1 | 10.1.0.0-10.1.31.255 | 10.1.3.0/24 |
| Instance 2 | 10.1.32.0-10.1.63.255 | 10.1.35.0/24 |
| Instance 3 | 10.1.64.0-10.1.95.255 | 10.1.67.0/24 |
Configuration par défaut pour d’autres appareils installés
- Tous les appareils de l'infrastructure réseau (à l'exception du serveur terminal) sont définis sur le mode
ZTP. - Les serveurs ont des paramètres de fabrique par défaut, y compris les paramètres BIOS minimaux.
Versions minimales recommandées du BIOS et du microprogramme pour le runtime du cluster Nexus
En guise de bonne pratique, les versions de BIOS et de microprogramme suivantes doivent être installées sur les serveurs avant le déploiement, en fonction de la version d’exécution et du boM sélectionnés. Pour référence, la version N est la dernière version du runtime disponible. N-1 et N-2 sont les versions d’exécution prises en charge précédentes.
Version d'exécution du Nexus Cluster N
BOM 1.7.3
| Composant | Version |
|---|---|
| BIOS | 1.18.1 |
| Contrôleur de tableau de stockage (PERC H755) | 52.30.0-6115 |
| iDRAC | 7.20.30.55 |
| Firmware SEP passif pour fond de panier de stockage sans expanseur (15G Non-Expander) | 7.10 |
| CPLD (Dispositif Logique Programmable Complexe) | 1.1.1 |
| Adaptateur Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Broadcom 5720 Quad Port 1GbE adaptateur BASE-T | 23.21.6 |
BOM 2.0.0
| Composant | Version |
|---|---|
| BIOS | 2.7.5 |
| Contrôleur de tableau de stockage (PERC H755) | 52.30.0-6115 |
| iDRAC | 7.20.30.55 |
| Firmware de l'extenseur SAS pour backplane (R760) | 1.61 |
| Microprogramme de backplane de stockage sans expandeur (R660) | 7.10 |
| CPLD (Dispositif Logique Programmable Complexe) | 1.2.6 |
| Adaptateur Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Broadcom 5720 Quad Port 1GbE adaptateur BASE-T | 23.21.6 |
Version N-1 de l'environnement d'exécution du Nexus Cluster
BOM 1.7.3
| Composant | Version |
|---|---|
| BIOS | 1.17.2 |
| Contrôleur de tableau de stockage (PERC H755) | 52.26.0-5179 |
| iDRAC | 7.20.30.00 |
| Firmware SEP passif pour fond de panier de stockage sans expanseur (15G Non-Expander) | 7.10 |
| CPLD (Dispositif Logique Programmable Complexe) | 1.1.1 |
| Adaptateur Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Broadcom 5720 Quad Port 1GbE adaptateur BASE-T | 23.21.6 |
BOM 2.0.0
| Composant | Version |
|---|---|
| BIOS | 2.6.3 |
| Contrôleur de tableau de stockage (PERC H755) | 52.26.0-5179 |
| iDRAC | 7.20.30.00 |
| Firmware de l'extenseur SAS pour backplane (R760) | 1.61 |
| Microprogramme de backplane de stockage sans expandeur (R660) | 7.10 |
| CPLD (Dispositif Logique Programmable Complexe) | 1.2.6 |
| Adaptateur Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Broadcom 5720 Quad Port 1GbE adaptateur BASE-T | 23.21.6 |
Version d'exécution N-2 de Nexus Cluster
BOM 1.7.3
| Composant | Version |
|---|---|
| BIOS | 1.15.2 |
| Contrôleur de tableau de stockage (PERC H755) | 52.26.0-5179 |
| iDRAC | 7.10.90.00 |
| Firmware SEP passif pour fond de panier de stockage sans expanseur (15G Non-Expander) | 7.10 |
| CPLD (Dispositif Logique Programmable Complexe) | 1.1.1 |
| Adaptateur Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Broadcom 5720 Quad Port 1GbE adaptateur BASE-T | 22.91.5 |
BOM 2.0.0
| Composant | Version |
|---|---|
| BIOS | 2.4.4 |
| Contrôleur de tableau de stockage (PERC H755) | 52.26.0-5179 |
| iDRAC | 7.10.90.00 |
| Firmware de l'extenseur SAS pour backplane (R760) | 1.61 |
| Microprogramme de backplane de stockage sans expandeur (R660) | 7.10 |
| CPLD (Dispositif Logique Programmable Complexe) | 1.2.6 |
| Adaptateur Mellanox ConnectX-6 DX | 22.41.10.00 |
| NVIDIA ConnectX-6 Lx 2x 25G SFP28 | 26.41.10.00 |
| Broadcom 5720 Quad Port 1GbE adaptateur BASE-T | 22.91.5 |
Règles de pare-feu entre Azure et Nexus Cluster.
Pour établir des règles de pare-feu entre Azure et le cluster Nexus, l’opérateur doit ouvrir les ports spécifiés. Cela garantit une communication et une connectivité appropriées pour les services requis à l’aide du protocole TCP (Transmission Control Protocol) et UDP (User Datagram Protocol).
| S.No | Origine | Destination | Port (TCP/UDP) | Bidirectionnel | Objectif de la règle |
|---|---|---|---|---|---|
| 1 | réseau virtuel Azure | Cluster | 22 TCP | Non | Depuis le sous-réseau CM, utiliser SSH vers des serveurs sous-cloud. |
| 2 | réseau virtuel Azure | Cluster | 443 TCP | Non | Pour accéder aux nœuds sous-cloud iDRAC |
| 3 | réseau virtuel Azure | Cluster | TCP 5900 | Non | Gnmi |
| 4 | réseau virtuel Azure | Cluster | TCP 6030 | Non | Certificats Gnmi |
| 5 | réseau virtuel Azure | Cluster | TCP 6443 | Non | Pour accéder au cluster K8S undercloud |
| 6 | Cluster | réseau virtuel Azure | TCP 8080 | Oui | Pour le montage d’une image ISO dans iDRAC, mise à niveau du runtime NNF |
| 7 | Cluster | réseau virtuel Azure | 3128 TCP | Non | Proxy pour se connecter à des points de terminaison Azure globaux |
| 8 | Cluster | réseau virtuel Azure | 53 TCP et UDP | Non | DNS |
| 9 | Cluster | réseau virtuel Azure | 123 UDP | Non | NTP |
| 10 | Cluster | réseau virtuel Azure | TCP 8888 | Non | Connexion au service web Cluster Manager |
| 11 | Cluster | réseau virtuel Azure | 514 TCP et UDP | Non | Pour accéder aux logs de l'undercloud depuis le Gestionnaire de cluster |
Installer des extensions CLI et se connecter à votre abonnement Azure
Installez la dernière version des extensions CLI nécessaires.
Connexion à l’abonnement Azure
az login
az account set --subscription <SUBSCRIPTION_ID>
az account show
Note
Le compte doit disposer des autorisations nécessaires pour lire/écrire/publier dans l’abonnement