Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Cuaderno de ejemplo
El cuaderno de ejemplo ejecuta un único trabajo de entrenamiento de un modelo de aprendizaje profundo con PyTorch, cuyo seguimiento se realiza como una ejecución de MLflow. Registra un modelo de punto de control después de cada 10 épocas. Se realiza un seguimiento de cada punto de control como un modelo registrado de MLflow. Con la interfaz de usuario o la API de búsqueda de MLflow, puede inspeccionar los modelos de punto de control y clasificarlos por precisión.
El portátil instala las bibliotecas scikit-learn y torch.
Modelo de aprendizaje profundo de MLflow 3 con cuadernos de puntos de control
Uso de la interfaz de usuario para explorar el rendimiento del modelo y registrar un modelo
Después de ejecutar el cuaderno, puede ver los modelos de punto de control guardados en la interfaz de usuario de experimentos de MLflow. Aparece un vínculo al experimento en la salida de la celda del cuaderno o siga estos pasos:
Haga clic en Experimentos en la barra lateral del área de trabajo.
Busque el experimento en la lista de experimentos. Puede activar la casilla Solo mis experimentos o usar el cuadro de búsqueda Filtrar experimentos para filtrar la lista de experimentos.
Haga clic en el nombre del experimento. Se abre la página Ejecuciones. El experimento contiene una ejecución de MLflow.
Haga clic en la pestaña Modelos . En esta pantalla se realiza un seguimiento de los modelos de punto de control individuales. Para cada punto de control, puede ver la precisión del modelo, junto con todos sus parámetros y metadatos.
En el cuaderno de ejemplo, registraste el modelo de mejor rendimiento en Unity Catalog. También puede registrar un modelo desde la interfaz de usuario. Para ello, siga estos pasos:
En la pestaña Modelos , haga clic en el nombre del modelo que se va a registrar.
En la página de detalles del modelo, en la esquina superior derecha, haga clic en Registrar modelo.
Sugerencia
Un modelo puede tardar unos minutos en aparecer en la interfaz de usuario después de registrarlo. No presione registrar el modelo más de una vez; de lo contrario, registrará modelos duplicados.
Seleccione Catálogo de Unity y seleccione un nombre de modelo existente en el menú desplegable o escriba un nombre nuevo.
Haga clic en Registrar.
Uso de la API para clasificar los modelos de punto de control
En el código siguiente se muestra cómo clasificar los modelos de punto de control por precisión. Para obtener más información sobre la búsqueda de modelos registrados mediante la API, consulte Buscar y filtrar modelos registrados.
ranked_checkpoints = mlflow.search_logged_models(
output_format="list",
order_by=[{"field_name": "metrics.accuracy", "ascending": False}]
)
best_checkpoint: mlflow.entities.LoggedModel = ranked_checkpoints[0]
print(best_checkpoint.metrics[0])
<Metric:
dataset_digest='9951783d',
dataset_name='train',
key='accuracy',
model_id='m-bba8fa52b6a6499281c43ef17fcdac84',
run_id='394928abe6fc4787aaf4e666ac89dc8a',
step=90,
timestamp=1730828771880,
value=0.9553571428571429
>
worst_checkpoint: mlflow.entities.LoggedModel = ranked_checkpoints[-1]
print(worst_checkpoint.metrics[0])
<Metric:
dataset_digest='9951783d',
dataset_name='train',
key='accuracy',
model_id='m-88885bc26de7492f908069cfe15a1499',
run_id='394928abe6fc4787aaf4e666ac89dc8a',
step=0,
timestamp=1730828730040,
value=0.35714285714285715
¿Cuál es la diferencia entre la pestaña Modelos de la página del experimento de MLflow y la página de versión del modelo en el Explorador de catálogos?
La pestaña Modelos de la página del experimento y la página de versión del modelo en el Explorador de catálogos muestran información similar sobre el modelo. Las dos vistas tienen roles diferentes en el ciclo de vida de desarrollo e implementación del modelo.
- La pestaña Modelos de la página del experimento presenta los resultados de los modelos registrados de un experimento en una sola página. La pestaña Gráficos de esta página proporciona visualizaciones que le ayudarán a comparar modelos y seleccionar las versiones del modelo para registrarse en el Catálogo de Unity para una posible implementación.
- En el Explorador de catálogos, la página versión del modelo proporciona información general de todos los resultados de rendimiento y evaluación del modelo. En esta página se muestran los parámetros del modelo, las métricas y los seguimientos en todos los entornos vinculados, incluidas áreas de trabajo, puntos de conexión y experimentos diferentes. Esto resulta útil para la supervisión y la implementación, y funciona especialmente bien con los trabajos de implementación. La tarea de evaluación de un trabajo de implementación crea métricas adicionales que aparecen en esta página. Después, el aprobador del trabajo puede revisar esta página para evaluar si se debe aprobar la versión del modelo para la implementación.
Pasos siguientes
Para más información sobre el LoggedModel seguimiento introducido en MLflow 3, consulte el siguiente artículo:
Para más información sobre el uso de MLflow 3 con flujos de trabajo de ML tradicionales, consulte el siguiente artículo: