InferenceConfig Classe
Constructeur
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
Paramètres
| Nom | Description |
|---|---|
|
entry_script
Obligatoire
|
Chemin d’accès à un fichier local qui contient le code à exécuter pour l’image. |
|
runtime
|
Runtime à utiliser pour l’image. Les runtimes pris en charge actuels sont « spark-py » et « python ». Valeur par défaut: None
|
|
conda_file
|
Chemin d’accès à un fichier local contenant une définition d’environnement conda à utiliser pour l’image. Valeur par défaut: None
|
|
extra_docker_file_steps
|
Chemin d’accès à un fichier local contenant des étapes Docker supplémentaires à exécuter lors de la configuration de l’image. Valeur par défaut: None
|
|
source_directory
|
Chemin d’accès au dossier qui contient tous les fichiers à créer l’image. Valeur par défaut: None
|
|
enable_gpu
|
Indique s’il faut activer la prise en charge du GPU dans l’image. L’image GPU doit être utilisée sur les services Microsoft Azure tels qu’Azure Container Instances, Azure Machine Learning Compute, Les machines virtuelles Azure et Azure Kubernetes Service. Valeur par défaut False. Valeur par défaut: None
|
|
description
|
Description à donner à cette image. Valeur par défaut: None
|
|
base_image
|
Image personnalisée à utiliser comme image de base. Si aucune image de base n’est donnée, l’image de base est utilisée en fonction du paramètre d’exécution donné. Valeur par défaut: None
|
|
base_image_registry
|
Registre d’images qui contient l’image de base. Valeur par défaut: None
|
|
cuda_version
|
Version de CUDA à installer pour les images nécessitant une prise en charge gpu. L’image GPU doit être utilisée sur les services Microsoft Azure tels qu’Azure Container Instances, Azure Machine Learning Compute, Les machines virtuelles Azure et Azure Kubernetes Service. Les versions prises en charge sont 9.0, 9.1 et 10.0.
Si Valeur par défaut: None
|
|
environment
|
Objet d’environnement à utiliser pour le déploiement. L’environnement n’a pas besoin d’être inscrit. Fournissez ce paramètre ou les autres paramètres, mais pas les deux. Les paramètres individuels ne servent pas de remplacement pour l’objet d’environnement. Les exceptions incluent Valeur par défaut: None
|
|
entry_script
Obligatoire
|
Chemin d’accès à un fichier local qui contient le code à exécuter pour l’image. |
|
runtime
Obligatoire
|
Runtime à utiliser pour l’image. Les runtimes pris en charge actuels sont « spark-py » et « python ». |
|
conda_file
Obligatoire
|
Chemin d’accès à un fichier local contenant une définition d’environnement conda à utiliser pour l’image. |
|
extra_docker_file_steps
Obligatoire
|
Chemin d’accès à un fichier local contenant des étapes Docker supplémentaires à exécuter lors de la configuration de l’image. |
|
source_directory
Obligatoire
|
Chemin d’accès au dossier qui contient tous les fichiers à créer l’image. |
|
enable_gpu
Obligatoire
|
Indique s’il faut activer la prise en charge du GPU dans l’image. L’image GPU doit être utilisée sur les services Microsoft Azure tels qu’Azure Container Instances, Azure Machine Learning Compute, Les machines virtuelles Azure et Azure Kubernetes Service. Valeur par défaut False. |
|
description
Obligatoire
|
Description à donner à cette image. |
|
base_image
Obligatoire
|
Image personnalisée à utiliser comme image de base. Si aucune image de base n’est donnée, l’image de base est utilisée en fonction du paramètre d’exécution donné. |
|
base_image_registry
Obligatoire
|
Registre d’images qui contient l’image de base. |
|
cuda_version
Obligatoire
|
Version de CUDA à installer pour les images nécessitant une prise en charge gpu. L’image GPU doit être utilisée sur les services Microsoft Azure tels qu’Azure Container Instances, Azure Machine Learning Compute, Les machines virtuelles Azure et Azure Kubernetes Service. Les versions prises en charge sont 9.0, 9.1 et 10.0.
Si |
|
environment
Obligatoire
|
Objet d’environnement à utiliser pour le déploiement. L’environnement n’a pas besoin d’être inscrit. Fournissez ce paramètre ou les autres paramètres, mais pas les deux. Les paramètres individuels ne servent pas de remplacement pour l’objet d’environnement. Les exceptions incluent |
Remarques
L’exemple suivant montre comment créer un objet InferenceConfig et l’utiliser pour déployer un modèle.
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
Variables
| Nom | Description |
|---|---|
|
entry_script
|
Chemin d’accès à un fichier local qui contient le code à exécuter pour l’image. |
|
runtime
|
Runtime à utiliser pour l’image. Les runtimes pris en charge actuels sont « spark-py » et « python ». |
|
conda_file
|
Chemin d’accès à un fichier local contenant une définition d’environnement conda à utiliser pour l’image. |
|
extra_docker_file_steps
|
Chemin d’accès à un fichier local contenant des étapes Docker supplémentaires à exécuter lors de la configuration de l’image. |
|
source_directory
|
Chemin d’accès au dossier qui contient tous les fichiers à créer l’image. |
|
enable_gpu
|
Indique s’il faut activer la prise en charge du GPU dans l’image. L’image GPU doit être utilisée sur les services Microsoft Azure tels qu’Azure Container Instances, Azure Machine Learning Compute, Les machines virtuelles Azure et Azure Kubernetes Service. |
|
azureml.core.model.InferenceConfig.description
|
Description à donner à cette image. |
|
base_image
|
Image personnalisée à utiliser comme image de base. Si aucune image de base n’est donnée, l’image de base est utilisée en fonction du paramètre d’exécution donné. |
|
base_image_registry
|
Registre d’images qui contient l’image de base. |
|
cuda_version
|
Version de CUDA à installer pour les images nécessitant une prise en charge gpu. L’image GPU doit être utilisée sur les services Microsoft Azure tels qu’Azure Container Instances, Azure Machine Learning Compute, Les machines virtuelles Azure et Azure Kubernetes Service. Les versions prises en charge sont 9.0, 9.1 et 10.0.
Si |
|
azureml.core.model.InferenceConfig.environment
|
Objet d’environnement à utiliser pour le déploiement. L’environnement n’a pas besoin d’être inscrit. Fournissez ce paramètre ou les autres paramètres, mais pas les deux. Les paramètres individuels ne servent pas de remplacement pour l’objet d’environnement. Les exceptions incluent |
Méthodes
| build_create_payload |
Générez la charge utile de création pour l’image conteneur. |
| build_profile_payload |
Générez la charge utile de profilage pour le package de modèle. |
| validate_configuration |
Vérifiez que les valeurs de configuration spécifiées sont valides. Déclenche une validation en cas d’échec WebserviceException . |
| validation_script_content |
Vérifiez que la syntaxe du script de score est valide avec ast.parse. Déclenche une validation en cas d’échec UserErrorException . |
build_create_payload
Générez la charge utile de création pour l’image conteneur.
build_create_payload(workspace, name, model_ids)
Paramètres
| Nom | Description |
|---|---|
|
workspace
Obligatoire
|
Objet espace de travail dans lequel créer l’image. |
|
name
Obligatoire
|
Nom de l’image. |
|
model_ids
Obligatoire
|
Liste des ID de modèle à empaqueter dans l’image. |
Retours
| Type | Description |
|---|---|
|
Charge utile de création d’image conteneur. |
Exceptions
| Type | Description |
|---|---|
build_profile_payload
Générez la charge utile de profilage pour le package de modèle.
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
Paramètres
| Nom | Description |
|---|---|
|
profile_name
Obligatoire
|
Nom de l’exécution du profilage. |
|
input_data
|
Données d’entrée pour le profilage. Valeur par défaut: None
|
|
workspace
|
Objet Workspace dans lequel profiler le modèle. Valeur par défaut: None
|
|
models
|
Liste d’objets de modèle. Il peut s’agir d’une liste vide. Valeur par défaut: None
|
|
dataset_id
|
ID associé au jeu de données contenant des données d’entrée pour l’exécution du profilage. Valeur par défaut: None
|
|
container_resource_requirements
|
configuration requise pour les ressources de conteneur pour la plus grande instance sur laquelle le modèle doit être déployé Valeur par défaut: None
|
|
description
|
Description à associer à l’exécution du profilage. Valeur par défaut: None
|
Retours
| Type | Description |
|---|---|
|
Charge utile du profil de modèle |
Exceptions
| Type | Description |
|---|---|
validate_configuration
Vérifiez que les valeurs de configuration spécifiées sont valides.
Déclenche une validation en cas d’échec WebserviceException .
validate_configuration()
Exceptions
| Type | Description |
|---|---|
validation_script_content
Vérifiez que la syntaxe du script de score est valide avec ast.parse.
Déclenche une validation en cas d’échec UserErrorException .
validation_script_content()
Exceptions
| Type | Description |
|---|---|