Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Attention
Cet article fait référence à CentOS, une distribution Linux ayant atteint l’état EOL (fin du service). Faites le point sur votre utilisation et organisez-vous en conséquence. Pour plus d’informations, consultez les conseils sur la fin de vie centOS.
S’applique à : ✔️ machines virtuelles Linux
Important
Pour s’aligner sur les pratiques linguistiques inclusives, nous avons remplacé le terme « liste noire » par « blocklist » dans cette documentation. Ce changement reflète notre engagement à éviter la terminologie qui pourrait porter des connotations négatives involontaires ou des préjugés raciaux perçus. Toutefois, dans les extraits de code et les références techniques où « liste rouge » fait partie de la syntaxe ou des outils établis (par exemple, les fichiers de configuration, les paramètres de ligne de commande), le terme d’origine est conservé pour préserver la précision fonctionnelle. Cette utilisation est strictement technique et n’implique aucune intention discriminatoire.
Pour tirer parti des fonctionnalités GPU de machines virtuelles de la série N Azure reposant sur les GPU NVIDIA, vous devez installer des pilotes GPU NVIDIA. L’extension de pilote GPU NVIDIA installe les pilotes NVIDIA CUDA ou GRID appropriés sur une machine virtuelle de série N. Installez ou gérez l’extension à l’aide du portail Azure ou d’outils tels qu’Azure CLI ou les modèles Azure Resource Manager. Consultez la documentation sur l’extension de pilote GPU NVIDIA pour connaître les distributions et les étapes de déploiement prises en charge.
Si vous choisissez d’installer manuellement les pilotes GPU NVIDIA, cet article indique les distributions prises en charge, les pilotes et les étapes d’installation et de vérification. Les informations de configuration manuelle du pilote sont également disponibles pour les machines virtuelles Windows.
Pour connaître les spécifications des machines virtuelles de la série N, les capacités de stockage et les détails du disque, consultez les tailles de machines virtuelles Linux GPU.
Avertissement
L’installation de pilotes NVIDIA à l’aide de méthodes autres que celles décrites dans ce guide peut entraîner l’échec de l’installation du pilote prévu. Pour garantir une fonctionnalité et une prise en charge appropriées, suivez uniquement les étapes d’installation et utilisez les versions de pilote spécifiées dans cette documentation.
Distributions et pilotes pris en charge
Pilotes CUDA NVIDIA
Pour connaître les derniers pilotes CUDA et les systèmes d’exploitation pris en charge, visitez le site web NVIDIA . Assurez-vous d’effectuer l’installation ou la mise à niveau en utilisant les derniers pilotes CUDA pris en charge pour votre distribution.
Remarque
Le dernier pilote CUDA pris en charge pour les machines virtuelles SKU de la série NC d’origine est actuellement 470.82.01. Les versions ultérieures des pilotes ne sont pas prises en charge sur les cartes K80 dans la série NC.
Remarque
Les machines virtuelles Azure NVads A10 v5 prennent uniquement en charge les versions de pilote GRID 17.x ou ultérieures. Le pilote vGPU pour la référence SKU A10 est un pilote unifié qui prend en charge les charges de travail graphiques et de calcul.
Attention
Le démarrage sécurisé et vTPM doivent être désactivés, car le processus se bloque lorsqu’il est activé.
Conseil
En guise d’alternative à l’installation manuelle du pilote CUDA sur une machine virtuelle Linux, vous pouvez déployer une image Azure Data Science Virtual Machine . L’édition DSVM pour Ubuntu 16.04 LTS préinstalle les pilotes NVIDIA CUDA, la bibliothèque de réseau neuronal profond CUDA CUDA et d’autres outils.
Pilotes NVIDIA GRID
Remarque
vGPU18 est disponible pour la série NCasT4_v3.
vGPU18 est désormais disponible pour la série NVadsA10_v5 dans les régions publiques uniquement. Le vGPU18 pour la série NVadsA10_v5 n’est pas encore pris en charge dans les régions Mooncake et Fairfax. Nous vous informerons dès que vGPU18 sera pris en charge pour la série NVadsA10_v5 dans les régions Mooncake et Fairfax.
Microsoft redistribue les programmes d’installation du pilote GRID NVIDIA pour les machines virtuelles de série NV et NVv3 utilisées comme stations de travail virtuelles ou pour les applications virtuelles. Installez uniquement ces pilotes GRID sur des machines virtuelles Azure NV, et uniquement sur les systèmes d’exploitation répertoriés dans le tableau suivant. Ces pilotes incluent les licences des logiciels GRID Virtual GPU dans Azure. Vous n’avez pas besoin de configurer un serveur de licences logicielles NVIDIA vGPU.
Les pilotes GRID redistribués par Azure ne fonctionnent pas sur la plupart des machines virtuelles de série non NV, telles que NC, NCv2, NCv3, ND et NDv2, mais elles fonctionnent sur la série NCasT4v3.
Pour plus d’informations sur les versions spécifiques du processeur virtuel et de la branche de pilote, visitez le site web NVIDIA .
| Répartition | Pilote |
|---|---|
| Ubuntu 20.04 LTS, 22.04 LTS, 24.04 LTS Red Hat Enterprise Linux 8.6, 8.8, 8.9, 8.10, 9.0, 9.2, 9.3, 9.4, 9.5 SUSE Linux Enterprise Server 15 SP2, 12 SP2,12 SP5 Rocky Linux 8.4 |
NVIDIA vGPU 18.5, branche de pilotes R570 NVIDIA vGPU 18.5, branche de pilotes R570 |
Remarque
Pour les machines virtuelles Azure NVads A10 v5, nous vous recommandons d’utiliser la dernière version du pilote. La dernière branche majeure du pilote NVIDIA (n) est rétrocompatible uniquement avec la précédente branche majeure (n-1). Par exemple, vGPU 17.x est rétrocompatible uniquement avec vGPU 16.x. Des défaillances de pilote peuvent survenir sur toutes les machines virtuelles exécutant encore n-2 ou inférieur lorsque la dernière branche de pilote est déployée sur les hôtes Azure.
NVs_v3 machines virtuelles prennent uniquement en charge les versions de pilote vGPU 16 ou inférieures .
Grid Driver 17.3 prend actuellement en charge uniquement la série de machines virtuelles NCasT4_v3. Pour utiliser ce pilote, téléchargez et installez le pilote GRID 17.3 manuellement.
Les pilotes GRID rencontrent des problèmes d’installation sur le noyau Azure 6.11. Pour débloquer, rétrogradez le noyau vers la version 6.8. Pour plus d’informations, consultez Problèmes connus.
Visitez GitHub pour obtenir la liste complète de tous les liens de pilotes Nvidia GRID précédents.
Avertissement
L’installation de logiciels tiers sur des produits Red Hat peut affecter les conditions de prise en charge de Red Hat. Consultez l’article Red Hat Knowledgebase.
Installer les pilotes CUDA sur les machines virtuelles de série N
Voici les étapes à suivre pour installer les pilotes CUDA de la boîte à outils CUDA NVIDIA sur des machines virtuelles de série N.
Les développeurs C et C++ peuvent éventuellement installer le kit d’outils complet pour créer des applications avec accélération GPU. Pour plus d’informations, consultez le Guide d’installation de CUDA.
Pour installer les pilotes CUDA, établissez une connexion SSH sur chaque machine virtuelle. Pour vérifier que le système dispose d’un GPU compatible CUDA, exécutez la commande suivante :
lspci | grep -i NVIDIA
lspci répertorie les périphériques PCIe sur la machine virtuelle, y compris la carte réseau InfiniBand et les GPU, le cas échéant. Si lspci n’est pas correctement renvoyé, vous devrez peut-être installer LIS sur CentOS/RHEL.
Ensuite, exécutez les commandes d’installation spécifiques de votre distribution.
Ubuntu
Ubuntu empaquette les pilotes propriétaires NVIDIA. Ces pilotes proviennent directement de NVIDIA et sont simplement empaquetés par Ubuntu afin qu’ils puissent être managés automatiquement par le système. Le téléchargement et l’installation de pilotes à partir d’une autre source peuvent entraîner une panne du système. En outre, l’installation de pilotes tiers nécessite des étapes supplémentaires sur les machines virtuelles avec TrustedLaunch et le démarrage sécurisé activés. Ils demandent à l’utilisateur d’ajouter une nouvelle clé propriétaire de l’ordinateur pour que le système démarre. Les pilotes d’Ubuntu sont signés par Canonical et fonctionnent avec le démarrage sécurisé.
Installez l'utilitaire
ubuntu-drivers:sudo apt update && sudo apt install -y ubuntu-drivers-commonInstallez la dernière version du pilote NVIDIA :
sudo ubuntu-drivers installRedémarrez la machine virtuelle une fois le pilote GPU installé :
sudo rebootTéléchargez et installez la boîte à outils CUDA à partir de NVIDIA :
Remarque
L’exemple montre le chemin d’accès au package CUDA pour Ubuntu 24.04 LTS. Utilisez le chemin d’accès spécifique à la version que vous envisagez d’utiliser.
Visitez le Centre de téléchargement NVIDIA ou la page Ressources NVIDIA CUDA pour obtenir le chemin complet spécifique à chaque version.
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb sudo apt install -y ./cuda-keyring_1.1-1_all.deb sudo apt update sudo apt -y install cuda-toolkit-12-5L’installation peut prendre plusieurs minutes.
Redémarrez la machine virtuelle une fois l’installation terminée :
sudo rebootVérifiez que le GPU est bien reconnu (après le redémarrage) :
nvidia-smi
Mises à jour du pilote NVIDIA
Nous vous recommandons de mettre régulièrement à jour les pilotes NVIDIA après le déploiement.
sudo apt update
sudo apt full-upgrade
CentOS ou Red Hat Enterprise Linux
Mettez à jour le noyau (recommandé). Si vous choisissez de ne pas mettre à jour le noyau, vérifiez que les versions de
kernel-develetdkmssont appropriées pour votre noyau.sudo yum install kernel kernel-tools kernel-headers kernel-devel sudo rebootInstallez les derniers services d’intégration Linux pour Hyper-V et Azure. Vérifiez si LIS est requis en vérifiant les résultats d’lspci. Si tous les périphériques GPU sont répertoriés comme prévu, il n’est pas nécessaire d’installer LIS.
LIS s’applique à Red Hat Enterprise Linux, CentOS et Oracle Linux Red Hat Compatible Kernel 5.2-5.11, 6.0-6.10 et 7.0-7.7. Pour plus d’informations, consultez la documentation Linux Integration Services . Ignorez cette étape si vous envisagez d’utiliser CentOS/RHEL 7.8 (ou versions ultérieures), car LIS n’est plus nécessaire pour ces versions.
wget https://aka.ms/lis tar xvzf lis cd LISISO sudo ./install.sh sudo rebootReconnectez-vous à la machine virtuelle et continuez l’installation avec les commandes suivantes :
sudo rpm -Uvh https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm sudo yum-config-manager --add-repo https://developer.download.nvidia.com/compute/cuda/repos/rhel7/x86_64/cuda-rhel7.repo sudo yum clean all sudo yum -y install nvidia-driver-latest-dkms cuda-driversL’installation peut prendre plusieurs minutes.
Remarque
Visitez le dépôt Fedora et Nvidia CUDA pour choisir le package approprié pour la version CentOS ou RHEL que vous souhaitez utiliser.
Par exemple, CentOS 8 et RHEL 8 nécessitent les étapes suivantes.
sudo rpm -Uvh https://dl.fedoraproject.org/pub/epel/epel-release-latest-8.noarch.rpm
sudo yum install dkms
sudo wget https://developer.download.nvidia.com/compute/cuda/repos/rhel8/x86_64/cuda-rhel8.repo -O /etc/yum.repos.d/cuda-rhel8.repo
sudo yum install cuda-drivers
Pour éventuellement installer le kit d’outils CUDA complet, saisissez :
sudo yum install cudaRemarque
Si vous voyez un message d’erreur lié à des packages manquants tels que le système de fichiers vulkan, vous devrez peut-être modifier /etc/yum.repos.d/rh-cloud, rechercher des rpms facultatifs et définir activé sur 1.
Redémarrez la machine virtuelle et vérifiez l’installation.
Vérification de l’installation du pilote
Pour interroger l’état de l’appareil GPU, connectez-vous à la machine virtuelle et exécutez l’utilitaire de ligne de commande nvidia-smi installé avec le pilote.
Si le pilote est installé, Nvidia SMI répertorie le GPU-Util en tant que N/A jusqu’à ce que vous exécutiez une charge de travail GPU sur la machine virtuelle.
Connectivité réseau RDMA
La connectivité réseau RDMA peut être activée sur des machines virtuelles de série N compatibles RDMA, comme les machines NC24r déployées dans le même groupe à haute disponibilité ou dans un seul groupe de placement au sein d’un groupe de machines virtuelles identiques. Le réseau RDMA prend en charge le trafic MPI (Message Passing Interface) pour les applications exécutées avec Intel MPI 5.x ou une version ultérieure :
Distributions
Déployez des machines virtuelles de série N compatibles RDMA à partir de l’une des images suivantes de la Place de marché Azure qui prend en charge la connectivité RDMA sur des machines virtuelles de série N :
Ubuntu 16.04 LTS : configurez les pilotes RDMA sur la machine virtuelle et inscrivez-vous auprès d’Intel pour télécharger Intel MPI :
Installer dapl, rdmacm, ibverbs et mlx4
sudo apt-get update sudo apt-get install libdapl2 libmlx4-1Dans /etc/waagent.conf, activez RDMA en supprimant les marques de commentaire dans les lignes de configuration suivantes. Un accès racine est requis pour modifier ce fichier.
OS.EnableRDMA=y OS.UpdateRdmaDriver=yAjoutez ou modifiez les paramètres de mémoire suivants en Ko dans le fichier /etc/security/limits.conf. Un accès racine est requis pour modifier ce fichier. À des fins de test, vous pouvez définir pour memlock une valeur illimitée. Par exemple :
<User or group name> hard memlock unlimited.<User or group name> hard memlock <memory required for your application in KB> <User or group name> soft memlock <memory required for your application in KB>Installez la bibliothèque Intel MPI. Achetez et téléchargez la bibliothèque à partir d’Intel ou téléchargez la version d’évaluation gratuite.
wget http://registrationcenter-download.intel.com/akdlm/irc_nas/tec/9278/l_mpi_p_5.1.3.223.tgzSeuls les runtimes Intel MPI 5.x sont pris en charge.
Pour connaître les étapes d’installation, consultez le Guide d’installation de la bibliothèque Intel MPI.
Activez ptrace pour les processus non-racine et non-débogueur (nécessaire pour les versions les plus récentes d’Intel MPI).
echo 0 | sudo tee /proc/sys/kernel/yama/ptrace_scope
Les pilotes HPC basés sur CentOS 7.4 - RDMA et Intel MPI 5.1 sont installés sur la machine virtuelle.
HPC basé sur CentOS - CentOS-HPC 7.6 et versions ultérieures (pour les SKU avec support InfiniBand sur SR-IOV). Ces images ont des bibliothèques Mellanox OFED et MPI préinstallées.
Remarque
Les cartes CX3 Pro sont prises en charge uniquement par le biais des versions LTS de Mellanox OFED. Utilisez la version LTS de Mellanox OFED (4.9-0.1.7.0) sur les machines virtuelles de la série N avec des cartes ConnectX3-Pro. Pour plus d’informations, consultez Pilotes Linux.
En outre, certaines des dernières images HPC de la Place de marché Azure ont Mellanox OFED 5.1 ou des versions ultérieures ; ces versions ne prennent pas en charge les cartes ConnectX3-Pro. Vérifiez la version de Mellanox OFED dans l’image HPC avant de l’utiliser sur des machines virtuelles avec des cartes ConnectX3-Pro.
Les images suivantes sont les dernières images CentOS-HPC qui prennent en charge les cartes ConnectX3-Pro :
- OpenLogic :CentOS-HPC :7.6:7.6.2020062900
- OpenLogic :CentOS-HPC :7_6gen2:7.6.2020062901
- OpenLogic :CentOS-HPC :7.7:7.7.2020062600
- OpenLogic :CentOS-HPC :7_7-gen2:7.7.2020062601
- OpenLogic :CentOS-HPC :8_1:8.1.2020062400
- OpenLogic :CentOS-HPC :8_1-gen2:8.1.2020062401
Installer les pilotes GRID sur les machines virtuelles de série NV ou NVv3
Pour installer les pilotes GRID NVIDIA sur les machines virtuelles de série NV ou NVv3, établissez une connexion SSH avec chaque machine virtuelle et suivez les étapes correspondant à votre distribution Linux.
Ubuntu
Exécutez la commande
lspci. Vérifiez que la ou les cartes NVIDIA M60 sont visibles en tant que périphériques PCI.Installez les mises à jour.
sudo apt-get update sudo apt-get upgrade -y sudo apt-get dist-upgrade -y sudo apt-get install build-essential ubuntu-desktop -y sudo apt-get install linux-azure -yDésactivez le pilote du noyau Nouveau, qui n’est pas compatible avec le pilote NVIDIA. (Utilisez uniquement le pilote NVIDIA sur les machines virtuelles NV ou NVv2.) Pour désactiver le pilote, créez un fichier nommé
/etc/modprobe.dnouveau.confavec le contenu suivant :blacklist nouveau blacklist lbm-nouveauRedémarrez la machine virtuelle et reconnectez-vous. Quittez le serveur X :
sudo systemctl stop lightdm.serviceTéléchargez et installez le pilote GRID :
wget -O NVIDIA-Linux-x86_64-grid.run https://go.microsoft.com/fwlink/?linkid=874272 chmod +x NVIDIA-Linux-x86_64-grid.run sudo ./NVIDIA-Linux-x86_64-grid.runLorsque vous êtes invité à exécuter l’utilitaire nvidia-xconfig pour mettre à jour votre fichier de configuration X, sélectionnez Oui.
Une fois l’installation terminée, copiez /etc/nvidia/gridd.conf.template vers un nouveau fichier gridd.conf à l’emplacement /etc/nvidia/.
sudo cp /etc/nvidia/gridd.conf.template /etc/nvidia/gridd.confAjoutez la ligne suivante à
/etc/nvidia/gridd.conf:IgnoreSP=FALSE EnableUI=FALSESupprimez l'élément suivant de
/etc/nvidia/gridd.confs'il y a lieu :FeatureType=0Redémarrez la machine virtuelle et vérifiez l’installation.
Installer le pilote GRID sur Ubuntu avec le démarrage sécurisé activé
Le processus d’installation du pilote GRID ne propose aucune option permettant d’ignorer la construction et l’installation du module de noyau et de sélectionner une source différente de modules de noyau signés, de sorte que le démarrage sécurisé doit être désactivé dans les machines virtuelles Linux afin de les utiliser avec GRID, après l’installation des modules de noyau signés.
CentOS ou Red Hat Enterprise Linux
Mettez à jour le noyau et DKMS (recommandé). Si vous choisissez de ne pas mettre à jour le noyau, vérifiez que les versions de
kernel-develetdkmssont appropriées pour votre noyau.sudo yum update sudo yum install kernel-devel sudo rpm -Uvh https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm sudo yum install dkms sudo yum install hyperv-daemonsDésactivez le pilote du noyau Nouveau, qui n’est pas compatible avec le pilote NVIDIA. (Utilisez uniquement le pilote NVIDIA sur des machines virtuelles NV ou NV3.) Pour ce faire, créez un fichier nommé
/etc/modprobe.dnouveau.confavec le contenu suivant :blacklist nouveau blacklist lbm-nouveauRedémarrez la machine virtuelle, reconnectez-vous et installez les derniers services d’intégration Linux pour Hyper-V et Azure. Vérifiez si LIS est requis en vérifiant les résultats d’lspci. Si tous les périphériques GPU sont répertoriés comme prévu, il n’est pas nécessaire d’installer LIS.
Ignorez cette étape si vous envisagez d’utiliser CentOS/RHEL 7.8 (ou versions ultérieures), car LIS n’est plus nécessaire pour ces versions.
wget https://aka.ms/lis tar xvzf lis cd LISISO sudo ./install.sh sudo rebootReconnectez-vous à la machine virtuelle et exécutez la commande
lspci. Vérifiez que la ou les cartes NVIDIA M60 sont visibles en tant que périphériques PCI.Téléchargez et installez le pilote GRID :
wget -O NVIDIA-Linux-x86_64-grid.run https://go.microsoft.com/fwlink/?linkid=874272 chmod +x NVIDIA-Linux-x86_64-grid.run sudo ./NVIDIA-Linux-x86_64-grid.runLorsque vous êtes invité à exécuter l’utilitaire nvidia-xconfig pour mettre à jour votre fichier de configuration X, sélectionnez Oui.
Une fois l’installation terminée, copiez /etc/nvidia/gridd.conf.template vers un nouveau fichier gridd.conf à l’emplacement /etc/nvidia/.
sudo cp /etc/nvidia/gridd.conf.template /etc/nvidia/gridd.confAjoutez deux lignes à
/etc/nvidia/gridd.conf:IgnoreSP=FALSE EnableUI=FALSESupprimez une ligne du
/etc/nvidia/gridd.confcas échéant :FeatureType=0Redémarrez la machine virtuelle et vérifiez l’installation.
Vérification de l’installation du pilote
Pour interroger l’état de l’appareil GPU, connectez-vous à la machine virtuelle et exécutez l’utilitaire de ligne de commande nvidia-smi installé avec le pilote.
Si le pilote est installé, Nvidia SMI répertorie le GPU-Util en tant que N/A jusqu’à ce que vous exécutiez une charge de travail GPU sur la machine virtuelle.
Serveur X11
Si vous avez besoin d’un serveur X11 pour les connexions à distance à une machine virtuelle NV ou NVv2, x11vnc est recommandé, car il autorise l’accélération matérielle des graphiques. Le BusID de l’appareil M60 doit être ajouté manuellement au fichier de configuration X11 (généralement etc/X11/xorg.conf). Ajoutez une section "Device" similaire à la suivante :
Section "Device"
Identifier "Device0"
Driver "nvidia"
VendorName "NVIDIA Corporation"
BoardName "Tesla M60"
BusID "PCI:0@your-BusID:0:0"
EndSection
En outre, mettez à jour votre section "Screen" pour utiliser cet appareil.
Vous pouvez trouver le busID décimal en exécutant
nvidia-xconfig --query-gpu-info | awk '/PCI BusID/{print $4}'
Le BusID peut changer lorsqu’une machine virtuelle est réaffectée ou redémarrée. Par conséquent, il peut être judicieux de créer un script pour mettre à jour le BusID dans la configuration X11 lors du redémarrage d’une machine virtuelle. Par exemple, créez un script nommé busidupdate.sh (ou un autre nom de votre choix) avec un contenu similaire à ce qui suit :
#!/bin/bash
XCONFIG="/etc/X11/xorg.conf"
OLDBUSID=`awk '/BusID/{gsub(/"/, "", $2); print $2}' ${XCONFIG}`
NEWBUSID=`nvidia-xconfig --query-gpu-info | awk '/PCI BusID/{print $4}'`
if [[ "${OLDBUSID}" == "${NEWBUSID}" ]] ; then
echo "NVIDIA BUSID not changed - nothing to do"
else
echo "NVIDIA BUSID changed from \"${OLDBUSID}\" to \"${NEWBUSID}\": Updating ${XCONFIG}"
sed -e 's|BusID.*|BusID '\"${NEWBUSID}\"'|' -i ${XCONFIG}
fi
Créez ensuite une entrée pour votre script de mise à jour dans /etc/rc.d/rc3.d afin que le script soit appelé en tant que root au démarrage.
Dépannage
Vous pouvez définir le mode de persistance à l’aide de
nvidia-smi. De cette façon, la sortie de la commande est plus rapide quand vous avez besoin d’effectuer une requête sur les cartes. Pour définir le mode de persistance, exécuteznvidia-smi -pm 1. Si la machine virtuelle est redémarrée, le paramètre de mode disparaît. Vous pouvez toujours scripter le paramètre de mode à exécuter au démarrage.Si vous avez mis à jour les pilotes NVIDIA CUDA vers la dernière version et que la connectivité RDMA ne fonctionne plus, réinstallez les pilotes RDMA pour rétablir cette connectivité.
Lors de l’installation de LIS, si une certaine version du système d’exploitation CentOS/RHEL (ou du noyau) n’est pas prise en charge pour LIS, une erreur « Version de noyau non prise en charge » s’affiche. Signalez cette erreur avec les versions du système d’exploitation et du noyau.
Si les travaux sont interrompus par des erreurs ECC sur le GPU (correctables ou irrécupérables), vérifiez d’abord si le GPU répond à l’un des critères RMA de Nvidia pour les erreurs ECC. Si le GPU est éligible à RMA, contactez le support technique sur l’obtention du service ; sinon, redémarrez votre machine virtuelle pour rattacher le GPU comme décrit ici. Les méthodes moins invasives, telles que
nvidia-smi -r, ne fonctionnent pas avec la solution de virtualisation déployée dans Azure.
Étapes suivantes
- Pour capturer une image de machine virtuelle Linux avec vos pilotes NVIDIA installés, consultez Comment généraliser et capturer une machine virtuelle Linux.