Partager via


ModelProfile Classe

Contient les résultats d’une exécution de profilage.

Un profil de modèle d’un modèle est une recommandation d’exigence de ressource. Un objet ModelProfile est retourné à partir de la profile méthode de la Model classe.

Initialisez l’objet ModelProfile.

Constructeur

ModelProfile(workspace, name)

Paramètres

Nom Description
workspace
Obligatoire

Objet d’espace de travail contenant le modèle.

name
Obligatoire
str

Nom du profil à créer et récupérer.

workspace
Obligatoire

Objet d’espace de travail contenant le modèle.

name
Obligatoire
str

Nom du profil à créer et récupérer.

Remarques

L’exemple suivant montre comment retourner un objet ModelProfile.


   profile = Model.profile(ws, "profilename", [model], inference_config, input_dataset=dataset)
   profile.wait_for_profiling(True)
   profiling_details = profile.get_details()
   print(profiling_details)

Méthodes

get_details

Obtenez les détails du résultat du profilage.

Retournez les métriques observées (différents centiles de latence, processeur et mémoire maximum utilisés, etc.) et les besoins en ressources recommandés en cas de réussite.

serialize

Convertissez ce profil en dictionnaire sérialisé JSON.

wait_for_completion

Attendez que le modèle termine le profilage.

get_details

Obtenez les détails du résultat du profilage.

Retournez les métriques observées (différents centiles de latence, processeur et mémoire maximum utilisés, etc.) et les besoins en ressources recommandés en cas de réussite.

get_details()

Retours

Type Description

Dictionnaire des exigences de ressources recommandées.

serialize

Convertissez ce profil en dictionnaire sérialisé JSON.

serialize()

Retours

Type Description

Représentation JSON de ce profil

wait_for_completion

Attendez que le modèle termine le profilage.

wait_for_completion(show_output=False)

Paramètres

Nom Description
show_output

Option booléenne pour imprimer une sortie plus détaillée. Valeur par défaut False.

Valeur par défaut: False