Partager via


Vue d’ensemble du déploiement pour les modèles Microsoft Foundry

Note

Ce document fait référence au portail Microsoft Foundry (classique).

🔍 Consultez la documentation Microsoft Foundry (nouvelle) pour en savoir plus sur le nouveau portail.

Le catalogue de modèles dans Microsoft Foundry est le hub pour découvrir et utiliser un large éventail de modèles Foundry pour la création d’applications IA génératives. Vous devez déployer des modèles pour les rendre disponibles pour recevoir des demandes d’inférence. Foundry offre une suite complète d’options de déploiement pour les modèles Foundry, en fonction de vos besoins et de vos besoins en matière de modèle.

Options de déploiement

Foundry fournit plusieurs options de déploiement en fonction du type de modèles et des ressources que vous devez provisionner. Les options de déploiement suivantes sont disponibles :

  • Déploiement standard dans les ressources Foundry
  • Déploiement vers des points de terminaison d’API serverless
  • Déploiement vers des calculs managés

Le portail Foundry peut choisir automatiquement une option de déploiement en fonction de votre environnement et de votre configuration. Utilisez les ressources Foundry pour le déploiement dans la mesure du possible. Les modèles qui prennent en charge plusieurs options de déploiement utilisent par défaut les ressources de Foundry pour le déploiement. Pour accéder à d’autres options de déploiement, utilisez Azure CLI ou le Kit de développement logiciel (SDK) Azure Machine Learning pour le déploiement.

Déploiement standard dans les ressources Foundry

Les ressources Foundry (anciennement appelées ressources Azure AI Services) sont l’option de déploiement préférée dans Foundry. Il offre la plus large gamme de capacités, y compris le traitement régional, le traitement en zone de données ou le traitement global, et propose des options de débit standard et de débit approvisionné (PTU). Les modèles phares des modèles Foundry prennent en charge cette option de déploiement.

Cette option de déploiement est disponible dans :

  • Ressources de fonderie
  • Ressources Azure OpenAI1
  • Azure AI Hub, lorsqu’il est connecté à une ressource Foundry

1Si vous utilisez des ressources Azure OpenAI, le catalogue de modèles affiche uniquement Azure OpenAI dans Les modèles Foundry pour le déploiement. Vous pouvez obtenir la liste complète des modèles Foundry en effectuant une mise à niveau vers une ressource Foundry.

Pour commencer à utiliser le déploiement standard dans les ressources Foundry, consultez Procédure : Déployer des modèles sur des modèles Foundry.

Point de terminaison d’API serverless

Cette option de déploiement est disponible uniquement dans lesressources Azure AI Hub. Il vous permet de créer des points de terminaison dédiés pour héberger le modèle, accessible via une API. Les modèles Foundry prennent en charge les points de terminaison d’API serverless avec facturation avec paiement à l’utilisation, et vous pouvez créer uniquement des déploiements régionaux pour les points de terminaison d’API serverless.

Pour commencer à utiliser le déploiement sur un point de terminaison d’API serverless, consultez Déployer des modèles en tant que déploiements d’API serverless.

Capacité de calcul managée

Cette option de déploiement est disponible uniquement dans lesressources Azure AI Hub. Il vous permet de créer un point de terminaison dédié pour héberger le modèle dans un calcul dédié. Vous devez disposer d’un quota de calcul dans votre abonnement pour héberger le modèle, et vous êtes facturé par durée de fonctionnement du calcul.

Le déploiement de calcul managé est requis pour les collections de modèles qui incluent :

  • Hugging Face
  • Microservices d’inférence NVIDIA (NIMs)
  • Modèles industriels (Saifr, Rockwell, Bayer, Cerence, Sight Machine, Page AI, SDAIA)
  • Databricks
  • Modèles personnalisés

Pour commencer, consultez Comment déployer et inférencer un déploiement de calcul managé et déployer des modèles Foundry sur un calcul géré avec facturation avec paiement à l’utilisation.

Fonctionnalités des options de déploiement

Utilisez des déploiements standard dans les ressources Foundry dans la mesure du possible. Cette option de déploiement fournit les fonctionnalités les plus nombreuses parmi les options de déploiement disponibles. Le tableau suivant répertorie des détails sur les fonctionnalités spécifiques pour chaque option de déploiement :

Capacité Déploiement standard dans les ressources Foundry Point de terminaison d’API sans serveur Capacité de calcul managée
Quels modèles peuvent être déployés ? Modèles Foundry Modèles Foundry avec facturation au paiement à l’utilisation Modèles personnalisés et ouverts
Ressources de déploiement Ressource Foundry Projet IA (dans la ressource du hub IA) Projet IA (dans la ressource du hub IA)
Nécessite AI Hubs Non Oui Oui
Options de traitement des données Régional
Zone de données
Mondial
Régional Régional
Réseau privé Oui Oui Oui
Filtrage du contenu Oui Oui Non
Filtrage de contenu personnalisé Oui Non Non
Authentification sans clé Oui Non Non
Bases de facturation Utilisation des jetons et unités de débit approvisionnées Utilisation du jeton2 Calculer les heures de base3

2 Une infrastructure de point de terminaison minimale est facturée par minute. Vous n’êtes pas facturé pour l’infrastructure qui héberge le modèle dans un déploiement sans serveur. Une fois que vous avez supprimé le point de terminaison, aucun autre frais n’est facturé.

3 La facturation est effectuée à la minute, en fonction du palier de produit et du nombre d’instances utilisées dans le déploiement depuis la création. Une fois que vous avez supprimé le point de terminaison, aucun autre frais n’est facturé.