Partager via


Flux de travail MLflow 3 deep learning

Exemple de notebook

L’exemple de notebook exécute un travail d’entraînement de modèle deep learning unique avec PyTorch, qui est suivi en tant qu’exécution MLflow. Il consigne un modèle de point de contrôle toutes les 10 époques. Chaque point de contrôle est suivi en tant que MLflow LoggedModel. À l’aide de l’interface utilisateur ou de l’API de recherche de MLflow, vous pouvez inspecter les modèles de point de contrôle et les classer par précision.

Le notebook installe les bibliothèques scikit-learn et torch.

Modèle D’apprentissage profond MLflow 3 avec bloc-notes de points de contrôle

Obtenir un ordinateur portable

Utiliser l’interface utilisateur pour explorer les performances du modèle et inscrire un modèle

Après avoir exécuté le notebook, vous pouvez afficher les modèles de point de contrôle enregistrés dans l’interface utilisateur des expériences MLflow. Un lien vers l’expérience apparaît dans la sortie de cellule du notebook ou effectuez les étapes suivantes :

  1. Cliquez sur Expériences dans la barre latérale de l’espace de travail.

  2. Recherchez votre expérience dans la liste des expériences. Vous pouvez cocher la case à cocher Uniquement mes expériences ou utiliser la zone de recherche Filtrer les expériences pour filtrer la liste des expériences.

  3. Cliquez sur le nom de votre expérience. La page Exécutions s’ouvre. L’expérience contient une exécution MLflow.

    Onglet des exécutions MLflow 3 montrant l’exécution d’un entraînement de deep learning.

  4. Cliquez sur l’onglet Modèles . Les modèles de point de contrôle individuels sont suivis sur cet écran. Pour chaque point de contrôle, vous pouvez voir la précision du modèle, ainsi que tous ses paramètres et métadonnées.

    L’onglet modèles MLflow 3 pour une exécution d’apprentissage profond affiche tous les modèles de point de contrôle enregistrés.

Dans l’exemple de notebook, vous avez inscrit le modèle le plus performant dans le catalogue Unity. Vous pouvez également inscrire un modèle à partir de l’interface utilisateur. Pour ce faire, procédez comme suit :

  1. Sous l’onglet Modèles , cliquez sur le nom du modèle à inscrire.

  2. Dans la page des détails du modèle, dans le coin supérieur droit, cliquez sur Inscrire le modèle.

    Conseil / Astuce

    L’affichage d’un modèle dans l’interface utilisateur peut prendre quelques minutes après l’inscription. N’appuyez pas sur le modèle Register plusieurs fois, sinon vous inscrireez des modèles en double.

    Bouton Inscrire le modèle sur la page de détails du modèle.

  3. Sélectionnez Catalogue Unity , puis sélectionnez un nom de modèle existant dans le menu déroulant ou tapez un nouveau nom.

    Boîte de dialogue d'enregistrement de modèle.

  4. Cliquez sur S'inscrire.

Utiliser l’API pour classer les modèles de point de contrôle

Le code suivant montre comment classer les modèles de point de contrôle par précision. Pour plus d’informations sur la recherche de modèles journalisés à l’aide de l’API, consultez Rechercher et filtrer les modèles journalisés.

ranked_checkpoints = mlflow.search_logged_models(
  output_format="list",
  order_by=[{"field_name": "metrics.accuracy", "ascending": False}]
)

best_checkpoint: mlflow.entities.LoggedModel = ranked_checkpoints[0]
print(best_checkpoint.metrics[0])

<Metric:
  dataset_digest='9951783d',
  dataset_name='train',
  key='accuracy',
  model_id='m-bba8fa52b6a6499281c43ef17fcdac84',
  run_id='394928abe6fc4787aaf4e666ac89dc8a',
  step=90,
  timestamp=1730828771880,
  value=0.9553571428571429
>

worst_checkpoint: mlflow.entities.LoggedModel = ranked_checkpoints[-1]
print(worst_checkpoint.metrics[0])

<Metric:
  dataset_digest='9951783d',
  dataset_name='train',
  key='accuracy',
  model_id='m-88885bc26de7492f908069cfe15a1499',
  run_id='394928abe6fc4787aaf4e666ac89dc8a',
  step=0,
  timestamp=1730828730040,
  value=0.35714285714285715

Quelle est la différence entre l’onglet Modèles de la page d’expérience MLflow et la page de version du modèle dans l’Explorateur de catalogues ?

L’onglet Modèles de la page d’expérience et la page de version du modèle dans l’Explorateur de catalogues affichent des informations similaires sur le modèle. Les deux vues ont des rôles différents dans le cycle de vie de développement et de déploiement du modèle.

  • L’onglet Modèles de la page d’expérience présente les résultats des modèles enregistrés à partir d’une expérience sur une seule page. L’onglet Graphiques de cette page fournit des visualisations pour vous aider à comparer les modèles et à sélectionner les versions de modèle à inscrire dans le catalogue Unity pour un déploiement possible.
  • Dans l’Explorateur de catalogues, la page de version du modèle fournit une vue d’ensemble de toutes les performances et résultats d’évaluation du modèle. Cette page affiche les paramètres de modèle, les métriques et les traces dans tous les environnements liés, notamment différents espaces de travail, points de terminaison et expériences. Cela est utile pour la supervision et le déploiement, et fonctionne particulièrement bien avec les travaux de déploiement. La tâche d’évaluation dans un travail de déploiement crée des métriques supplémentaires qui apparaissent sur cette page. L’approbateur du travail peut ensuite passer en revue cette page pour déterminer s’il faut approuver la version du modèle pour le déploiement.

Étapes suivantes

Pour en savoir plus sur LoggedModel le suivi introduit dans MLflow 3, consultez l’article suivant :

Pour en savoir plus sur l’utilisation de MLflow 3 avec des flux de travail ML traditionnels, consultez l’article suivant :