Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Une cible de calcul est un environnement ou une ressource de calcul où vous exécutez votre script d’entraînement ou hébergez votre déploiement de service. Cet emplacement peut être votre machine locale ou une ressource de calcul informatique. Les cibles de calcul facilitent la modification de votre environnement de calcul sans modifier votre code.
Azure Machine Learning prend en charge différentes cibles de calcul. Dans un cycle de vie de développement de modèle type, vous pouvez effectuer les opérations suivantes :
- Commencez par développer et expérimenter une petite quantité de données. À ce stade, utilisez votre environnement local, tel qu’un ordinateur local ou une machine virtuelle informatique, comme cible de calcul.
- Effectuez un scale-up vers des données plus volumineuses ou effectuez une formation distribuée à l’aide d’une de ces cibles de calcul de formation.
- Une fois que votre modèle est prêt, déployez-le sur un environnement d’hébergement web avec l’une de ces cibles de calcul de déploiement.
Vous attachez les ressources de calcul que vous utilisez pour vos cibles de calcul à un espace de travail. Les utilisateurs de l’espace de travail partagent des ressources de calcul autres que l’ordinateur local.
Cibles de calcul d’entraînement
Lorsque vous mettez à l'échelle votre formation sur des jeux de données plus volumineux ou effectuez une formation distribuée, utilisez le calcul Azure Machine Learning pour créer un cluster à nœud unique ou à plusieurs nœuds qui s’autose met à l’échelle chaque fois que vous soumettez un job. Vous pouvez également attacher votre propre ressource de calcul, bien que la prise en charge de différents scénarios puisse varier.
Vous pouvez réutiliser les cibles de calcul d’un travail de formation à l’autre. Par exemple, une fois que vous avez joint une machine virtuelle distante à votre espace de travail, vous pouvez la réutiliser pour plusieurs travaux.
Pour les pipelines de Machine Learning, utilisez l’étape de pipeline appropriée pour chaque cible de calcul.
Vous pouvez utiliser n’importe laquelle des ressources suivantes pour une cible de calcul de formation pour la plupart des travaux. Certaines ressources ne peuvent pas être utilisées pour l’apprentissage automatique automatisé, des pipelines d’apprentissage automatique ou un concepteur. Azure Databricks peut être utilisé comme ressource de formation pour les exécutions locales et les pipelines d’apprentissage automatique, mais pas comme cible distante pour d’autres formations.
| Cibles d’entraînement | Machine learning automatisé | Pipelines d’apprentissage automatique | Concepteur Azure Machine Learning |
|---|---|---|---|
| Cluster de calcul Azure Machine Learning | Oui | Oui | Oui |
| Calcul serverless Azure Machine Learning | Oui | Oui | Oui |
| Instance de calcul Azure Machine Learning | Oui (via un Kit de développement logiciel (SDK)) | Oui | Oui |
| Azure Machine Learning Kubernetes | Oui | Oui | |
| Machine virtuelle distante | Oui | Oui | |
| Pools Apache Spark (préversion) | Oui (Kit de développement logiciel (SDK) en mode local uniquement) | Oui | |
| Azure Databricks | Oui (Kit de développement logiciel (SDK) en mode local uniquement) | Oui | |
| Service Analytique Azure Data Lake | Oui | ||
| Azure HDInsight | Oui | ||
| Azure Batch | Oui |
| Cibles d’entraînement | Machine learning automatisé | Pipelines d’apprentissage automatique | Concepteur Azure Machine Learning |
|---|---|---|---|
| Ordinateur local | Oui | ||
| Cluster de calcul Azure Machine Learning | Oui | Oui | Oui |
| Instance de calcul Azure Machine Learning | Oui (via un Kit de développement logiciel (SDK)) | Oui | Oui |
| Azure Machine Learning Kubernetes | Oui | Oui | |
| Machine virtuelle distante | Oui | Oui | |
| Pools Apache Spark (préversion) | Oui (Kit de développement logiciel (SDK) en mode local uniquement) | Oui | |
| Azure Databricks | Oui (Kit de développement logiciel (SDK) en mode local uniquement) | Oui | |
| Service Analytique Azure Data Lake | Oui | ||
| Azure HDInsight | Oui | ||
| Azure Batch | Oui |
Conseil
L’instance de calcul a un disque de système d’exploitation de 120 Go. Si vous ne disposez pas de suffisamment d’espace disque, utilisez le terminal pour effacer au moins 1-2 Go avant d’arrêter ou redémarrer l’instance de calcul.
Cibles de calcul pour l’inférence
Lorsque vous effectuez une inférence, Azure Machine Learning crée un conteneur Docker qui héberge le modèle et les ressources associées nécessaires pour l’utiliser. Vous utilisez ce conteneur dans une cible de calcul.
La cible de calcul que vous utilisez pour héberger votre modèle affecte le coût et la disponibilité de votre point de terminaison déployé. Utilisez ce tableau pour choisir une cible de calcul appropriée.
| Cible de calcul | Utilisé pour | Prise en charge GPU | Descriptif |
|---|---|---|---|
| Points de terminaison Azure Machine Learning | Inférence en temps réel Inférence par lots |
Oui | Calculs complètement managés pour le scoring en temps réel (points de terminaison en ligne managés) et par lots (points de terminaison de lot) sur le calcul serverless. |
| Azure Machine Learning Kubernetes | Inférence en temps réel Inférence par lots |
Oui | Exécutez des charges de travail d’inférence sur des clusters Kubernetes locaux, cloud et de périphérie. |
| Cible de calcul | Utilisé pour | Prise en charge GPU | Descriptif |
|---|---|---|---|
| Service web local | Test/débogage | Pour la résolution des problèmes et des tests limités. L’accélération matérielle dépend de l’utilisation de bibliothèques dans le système local. | |
| Azure Machine Learning Kubernetes | Inférence en temps réel | Oui | Exécutez des charges de travail d’inférence dans le cloud. |
| Azure Container Instances | Inférence en temps réel Recommandé à des fins de développement et de test uniquement. |
Pour les charges de travail à faible échelle basées sur le processeur qui nécessitent moins de 48 Go de RAM. Vous n’avez pas besoin de gérer un cluster. Convient uniquement aux modèles de moins de 1 Go de taille. Pris en charge dans le concepteur. |
Remarque
Lors du choix d’une référence (SKU) de cluster, effectuez un scale-up, puis un scale-out. Commencez avec une machine disposant de 150 % de la RAM dont votre modèle a besoin, profilez le résultat et recherchez une machine présentant le niveau de performance dont vous avez besoin. Une fois que vous avez appris cela, augmentez le nombre d’ordinateurs pour répondre à vos besoins en inférence simultanée.
Calcul Azure Machine Learning (managé)
Azure Machine Learning crée et gère les ressources de calcul managées. Ce type de calcul est optimisé pour les charges de travail Machine Learning. Les clusters de calcul Azure Machine Learning, le calcul serverless et les instances de calcul sont les seuls calculs managés.
Vous n’avez pas besoin de créer un calcul sans serveur. Vous pouvez créer des instances de calcul Azure Machine Learning ou des clusters de calcul depuis :
- Azure Machine Learning Studio
- Le SDK Python et Azure CLI :
- Un modèle Azure Resource Manager. Pour obtenir un exemple de modèle, consultez Créer un cluster de calcul Azure Machine Learning.
Remarque
Au lieu de créer un cluster de calcul, utilisez le calcul serverless pour décharger la gestion du cycle de vie du calcul dans Azure Machine Learning.
Lorsque vous créez ces ressources de calcul, elles font automatiquement partie de votre espace de travail, contrairement à d’autres types de cibles de calcul.
| Fonctionnalité | Cluster de calcul | Instance de calcul |
|---|---|---|
| Cluster à nœud unique ou multinode | ✓ | Cluster mononœud |
| Mises à l’échelle automatique chaque fois que vous envoyez une tâche | ✓ | |
| Gestion des clusters et planification automatiques des travaux | ✓ | ✓ |
| Prise en charge des ressources UC et GPU | ✓ | ✓ |
Remarque
Pour éviter des frais lorsque le calcul est inactif :
- Pour un cluster de calcul, vérifiez que le nombre minimal de nœuds est défini sur 0 ou utilisez un calcul serverless.
- Pour une instance de calcul, activez l’arrêt en cas d’inactivité. L'arrêt de l'instance de calcul met fin à la facturation pour les heures de calcul, mais vous continuez à payer pour le disque, l'adresse IP publique et l'équilibreur de charge standard.
Tailles et séries de machine virtuelle prises en charge
Important
Si vos clusters ou votre instance de calcul sont basés sur l’une de ces séries, recréez-les avec une autre taille de machine virtuelle.
Ces séries ont été mises hors service le 31 août 2023 :
Ces séries ont été mises hors service le 31 août 2024 :
Ces séries ont été mises hors service le 30 septembre 2025 :
Lorsque vous sélectionnez une taille de nœud pour une ressource de calcul managée dans Azure Machine Learning, vous pouvez choisir parmi les tailles de machine virtuelle disponibles dans Azure. Azure propose une gamme de tailles de machines virtuelles Windows et Linux pour différentes charges de travail. Pour plus d’informations, consultez types et tailles de machine virtuelle.
Quelques exceptions et limites s’appliquent quant au choix d’une taille de machine virtuelle :
- Azure Machine Learning ne prend pas en charge certaines séries de machines virtuelles.
- Certaines séries de machines virtuelles, comme celles avec GPU et d’autres références SKU spéciales, peuvent ne pas apparaître initialement dans votre liste de machines virtuelles disponibles. Mais vous pouvez toujours les utiliser une fois que vous demandez une modification de quota. Pour plus d’informations sur les demandes de quotas, consultez Demander des augmentations de quota et de limites.
Pour en savoir plus sur les séries prises en charge, consultez le tableau suivant.
| Série de machines virtuelles prises en charge | Catégorie | Pris en charge par |
|---|---|---|
| DDSv4 | Usage général | Clusters et instance de calcul |
| Dv2 | Usage général | Clusters et instance de calcul |
| Dv3 | Usage général | Clusters et instance de calcul |
| DSv2 | Usage général | Clusters et instance de calcul |
| DSv3 | Usage général | Clusters et instance de calcul |
| EAv4 | Mémoire optimisée | Clusters et instance de calcul |
| Ev3 | Mémoire optimisée | Clusters et instance de calcul |
| ESv3 | Mémoire optimisée | Clusters et instance de calcul |
| FSv2 | Optimisé pour le calcul | Clusters et instance de calcul |
| FX | Optimisé pour le calcul | Clusters de calcul |
| H | Calcul haute performance | Clusters et instance de calcul |
| HB | Calcul haute performance | Clusters et instance de calcul |
| HBv2 | Calcul haute performance | Clusters et instance de calcul |
| HBv3 | Calcul haute performance | Clusters et instance de calcul |
| HC | Calcul haute performance | Clusters et instance de calcul |
| LSv2 | Optimisé pour le stockage | Clusters et instance de calcul |
| M | Mémoire optimisée | Clusters et instance de calcul |
| NC | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| NC Promo | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| NCv2 | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| NCv3 | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| ND | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| NDv2 | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| NV | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| NVv3 | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| NCasT4_v3 | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| NDasrA100_v4 | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| ND-H100-v5 | GPU (unité de traitement graphique) | Clusters et instance de calcul |
| ND-H200-v5 | GPU (unité de traitement graphique) | Clusters et instance de calcul |
Même si Azure Machine Learning prend en charge ces séries de machines virtuelles, elles peuvent ne pas être disponibles dans toutes les régions Azure. Pour vérifier si les séries de machines virtuelles sont disponibles, consultez Disponibilité des produits par région.
Remarque
Azure Machine Learning ne prend pas en charge toutes les tailles de machines virtuelles prises en charge par Azure Compute. Pour lister les tailles de machine virtuelle disponibles, utilisez la méthode suivantes :
Remarque
Azure Machine Learning ne prend pas en charge toutes les tailles de machines virtuelles prises en charge par Azure Compute. Pour répertorier les tailles de machine virtuelle disponibles prises en charge par des types de machines virtuelles de calcul spécifiques, utilisez l’une des méthodes suivantes :
Si vous utilisez les cibles de calcul avec GPU, il est important de vérifier que les pilotes CUDA corrects sont installés dans l’environnement d’apprentissage. Pour déterminer la version de CUDA correcte à utiliser, reportez-vous au tableau suivant :
| Architecture GPU | Série Machines virtuelles Azure | Versions de CUDA prises en charge |
|---|---|---|
| Ampère | NDA100_v4 | 11.0+ |
| Turing | NCT4_v3 | 10.0+ |
| Volta | NCv3, NDv2 | 9.0+ |
| Pascal | NCv2, ND | 9.0+ |
| Maxwell | NV, NVv3 | 9.0+ |
| Kepler | NC, NC Promo | 9.0+ |
En plus de vérifier la compatibilité des versions de CUDA avec le matériel, vérifiez que la version de CUDA est compatible avec la version du framework de Machine Learning que vous utilisez :
- Pour PyTorch, vérifiez la compatibilité en consultant la page des versions précédentes de PyTorch.
- Pour TensorFlow, vérifiez la compatibilité en consultant la build de TensorFlow à partir de la page source.
Isolation du calcul
Le calcul Azure Machine Learning offre des tailles de machines virtuelles qui sont isolées dans un type de matériel spécifique et qui sont dédiées à un client unique. Les tailles de machines virtuelles isolées sont les mieux adaptées aux charges de travail qui nécessitent un niveau élevé d’isolement par rapport aux charges de travail des autres clients pour des raisons de conformité et d’exigences réglementaires, entre autres. Lorsque vous utilisez une taille isolée, votre machine virtuelle est la seule en cours d’exécution sur cette instance de serveur spécifique.
Les offres actuelles de machines virtuelles isolées sont les suivantes :
- Standard_M128ms
- Standard_F72s_v2
- Standard_NC24s_v3
- Standard_NC24rs_v3 (compatible RDMA)
Pour plus d’informations sur l’isolation, consultez Isolation dans le cloud public Azure.
Calcul non managé
Azure Machine Learning ne gère pas une cible de calcul non managée. Vous créez ce type de cible de calcul en dehors d’Azure Machine Learning, puis l’attachez à votre espace de travail. Vous devrez peut-être prendre des mesures supplémentaires pour gérer les ressources de calcul non managées ou améliorer les performances des charges de travail Machine Learning.
Azure Machine Learning prend en charge les types de calcul non managés suivants :
- Machines virtuelles à distance
- Azure HDInsight
- Azure Databricks
- Service Analytique Azure Data Lake
- Azure Kubernetes Service
- Pool Spark Azure Synapse (déconseillé)
Pour plus d’informations, consultez Gérer les ressources de calcul.