Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Déployez votre agent IA sur Mosaïque AI Model Service à l’aide de la deploy() fonction à partir de l’API Python Agent Framework. Le déploiement crée un point de terminaison de service avec des outils intégrés d’extensibilité, de supervision et de collaboration.
Votre agent déployé s’intègre automatiquement aux fonctionnalités d’évaluation et de surveillance MLflow 3 , notamment le suivi en temps réel, l’application de révision pour les commentaires des parties prenantes et la surveillance.
Requirements
MLflow 3
- Inscrivez votre agent dans le catalogue Unity.
- Installez MLflow 3.1.3 ou version ultérieure pour déployer des agents à l’aide de l’API
deploy()à partir dedatabricks.agents. - Le déploiement d’agents en dehors d’un notebook Databricks nécessite
databricks-agentsSDK version 1.1.0 ou ultérieure.
Installez les prérequis :
# Install prerequisites
%pip install mlflow>=3.1.3 databricks-agents>=1.1.0
# Restart Python to make sure the new packages are picked up
dbutils.library.restartPython()
MLflow 2.x
Important
Databricks recommande d’utiliser MLflow 3 pour déployer des agents, car certaines fonctionnalités de journalisation MLflow 2 seront déconseillées. Consultez les actions de déploiement détaillées.
- Inscrivez votre agent dans le catalogue Unity.
- Installez MLflow 2.13.1 ou version ultérieure pour déployer des agents à l’aide de l’API
deploy()à partir dedatabricks.agents. - Le déploiement d’agents en dehors d’un notebook Databricks nécessite
databricks-agentsSDK version 0.12.0 ou ultérieure.
Installez les prérequis :
# Install prerequisites
%pip install mlflow>=2.13.1 databricks-agents>=0.12.0
# Restart Python to make sure the new packages are picked up
dbutils.library.restartPython()
Déployer des agents à l’aide de deploy()
Déployez votre agent sur un point de terminaison de service pour modèle :
from databricks import agents
deployment = agents.deploy(uc_model_name, uc_model_info.version)
# Retrieve the query endpoint URL for making API requests
deployment.query_endpoint
Lorsque vous appelez deploy(), Databricks configure automatiquement l’infrastructure de production et intègre votre agent aux fonctionnalités d'IA générative de MLflow en procédant comme suit :
Avertissement
Si vous déployez un agent à partir d’un notebook stocké dans un dossier Git Databricks, le suivi en temps réel MLflow 3 ne fonctionnera pas par défaut.
Pour activer le suivi en temps réel, définissez l’expérience comme une expérience sans association à Git en utilisant mlflow.set_experiment() avant d’exécuter agents.deploy().
La deploy() fonction effectue les actions suivantes par défaut :
- Crée un point de terminaison de modèle pour héberger votre agent avec mise à l'échelle automatique et équilibrage de charge
- Provisionne l’authentification sécurisée pour que votre agent accède aux ressources sous-jacentes
- Permet la surveillance en temps réel via le suivi d’expériences MLflow et l’évaluation automatisée de la qualité sur le trafic de production
- Configurer la collaboration des parties prenantes à l’aide de l’application de révision pour la collecte de commentaires
Pour plus d’informations, consultez Actions de déploiement détaillées.
Personnaliser le déploiement
Pour personnaliser le déploiement, transmettez des arguments supplémentaires à deploy(). Par exemple, vous pouvez activer la mise à l’échelle à zéro pour les points de terminaison inactifs en passant scale_to_zero_enabled=True. Cela réduit les coûts, mais augmente le temps nécessaire pour traiter les requêtes initiales.
Pour plus de paramètres, consultez l’API Python des agents Databricks.
Récupérer et supprimer des déploiements d’agents
Récupérez ou gérez les déploiements d’agents existants. Consultez l’API Python des agents Databricks.
from databricks.agents import list_deployments, get_deployments, delete_deployment
# Print all current deployments
deployments = list_deployments()
print(deployments)
# Get the deployment for a specific agent model name and version
agent_model_name = "" # Set to your Unity Catalog model name
agent_model_version = 1 # Set to your agent model version
deployment = get_deployments(model_name=agent_model_name, model_version=agent_model_version)
# List all deployments
all_deployments = list_deployments()
# Delete an agent deployment
delete_deployment(model_name=agent_model_name, model_version=agent_model_version)
Authentification pour les ressources dépendantes
Les agents doivent souvent s’authentifier auprès d’autres ressources pour effectuer des tâches lorsqu’elles sont déployées. Par exemple, un agent peut avoir besoin d’accéder à un index Recherche vectorielle pour interroger des données non structurées.
Pour plus d’informations sur les méthodes d’authentification, notamment quand les utiliser et comment les configurer, consultez Authentification pour les agents IA.
Actions de déploiement détaillées
Le tableau suivant répertorie les actions de déploiement détaillées résultant d’un deploy() appel. Le déploiement peut prendre jusqu’à 15 minutes.
MLflow 3
Action deploy() |
Descriptif |
|---|---|
| Créer un point de terminaison de service de modèle | Crée un point de terminaison d’API REST évolutif qui sert votre agent aux applications orientées utilisateur avec équilibrage de charge automatique. |
| Mettre en place l’authentification sécurisée | Fournit automatiquement des informations d’identification de courte durée qui permettent à votre agent d’accéder aux ressources gérées par Databricks (index recherche vectorielle, fonctions catalogue Unity, etc.) avec des autorisations minimales requises. Databricks vérifie que le propriétaire du point de terminaison dispose des autorisations appropriées avant d’émettre des informations d’identification, ce qui empêche l’accès non autorisé. Pour les ressources non Databricks, passez des variables d’environnement avec des secrets à deploy(). Consultez Configurer l’accès aux ressources à partir de points de terminaison de mise en service de modèles. |
| Activer l’application de révision | Fournit une interface web où les parties prenantes peuvent interagir avec votre agent et fournir des commentaires. Consultez Collecter des commentaires et des attentes en étiquetant les traces existantes. |
| Activer le suivi en temps réel | Enregistre toutes les interactions de l’agent dans une expérience MLflow en temps réel, ce qui offre une visibilité immédiate pour la surveillance et le débogage.
|
| Activer la supervision de production (bêta) | Configure l’évaluation automatisée de la qualité qui exécute des scorers sur le trafic de production. Consultez la surveillance de la production. |
| Activer les tables d’inférence | Crée des tables qui enregistrent les demandes et leurs réponses pour l’audit et l’analyse.
|
| Consigner les demandes d’API REST et passer en revue les commentaires de l’application | Journalise les demandes d’API et les commentaires sur une table d’inférence. Avertissement: Le modèle de commentaires est déconseillé et sera supprimé dans une prochaine version. Effectuez une mise à niveau vers MLflow 3 et utilisez plutôt l’API log_feedback . Consultez Collecter les commentaires des utilisateurs.
|
MLflow 2
Action deploy() |
Descriptif |
|---|---|
| Créer un point de terminaison de service de modèle | Crée un point de terminaison d’API REST évolutif qui sert votre agent aux applications orientées utilisateur avec équilibrage de charge automatique. |
| Mettre en place l’authentification sécurisée | Fournit automatiquement des informations d’identification de courte durée qui permettent à votre agent d’accéder aux ressources gérées par Databricks (index recherche vectorielle, fonctions catalogue Unity, etc.) avec des autorisations minimales requises. Databricks vérifie que le propriétaire du point de terminaison dispose des autorisations appropriées avant d’émettre des informations d’identification, ce qui empêche l’accès non autorisé. Pour les ressources non Databricks, passez des variables d’environnement avec des secrets à deploy(). Consultez Configurer l’accès aux ressources à partir de points de terminaison de mise en service de modèles. |
| Activer l’application de révision | Fournit une interface web où les parties prenantes peuvent interagir avec votre agent et fournir des commentaires. Consultez Collecter des commentaires et des attentes en étiquetant les traces existantes. |
| Activer les tables d’inférence | Crée des tables qui enregistrent les demandes et leurs réponses pour l’audit et l’analyse. Avertissement: Les journaux des demandes et les journaux d’évaluation sont déconseillés et seront supprimés dans une version ultérieure. Consultez les journaux des demandes et la dépréciation des journaux d’évaluation pour obtenir des conseils sur la migration.
|
| Consigner les demandes d’API REST et passer en revue les commentaires des applications (déconseillé) | Journalise les demandes d’API et les commentaires sur une table d’inférence. Avertissement: Le modèle de commentaires est déconseillé et sera supprimé dans une prochaine version. Effectuez une mise à niveau vers MLflow 3 et utilisez plutôt l’API log_feedback . Consultez Collecter les commentaires des utilisateurs.
|