Estimator Klasse
Stellt eine generische Schätzung dar, um Daten mit einem beliebigen bereitgestellten Framework zu trainieren.
VERALTET. Verwenden Sie das ScriptRunConfig Objekt mit Ihrer eigenen definierten Umgebung oder einer kuratierten Azure ML-Umgebung. Eine Einführung in das Konfigurieren von Experimentläufen mit ScriptRunConfig finden Sie unter Konfigurieren und Übermitteln von Schulungsläufen.
Diese Klasse wurde für die Verwendung mit Machine Learning-Frameworks entwickelt, die noch nicht über eine vorkonfigurierte Azure Machine Learning-Schätzung verfügen. Vorkonfigurierte Schätzzeichen sind für Chainer, , PyTorch, TensorFlowund SKLearn. Informationen zum Erstellen einer nicht vorkonfigurierten Estimator finden Sie unter "Train models with Azure Machine Learning using estimator".To create an Estimator that is not preconfigured, see Train models with Azure Machine Learning using estimator.
Die Estimator-Klasse umschließt Konfigurationsinformationen, um die Aufgaben der Angabe der Ausführung eines Skripts zu vereinfachen. Sie unterstützt die Ausführung mit einem einzelnen Knoten sowie die Ausführung mit mehreren Knoten. Wenn Sie den Schätzer ausführen, wird ein Modell im Ausgabeverzeichnis erstellt, das in Ihrem Schulungsskript angegeben ist.
Initialisieren Sie den Schätzer.
azureml.core.environment._DEFAULT_SHM_SIZE wird verwendet. Weitere Informationen finden Sie in der Referenz zur Docker-Ausführung. :type shm_size: str :p aram resume_from: Der Datenpfad mit den Prüfpunkt- oder Modelldateien, aus denen das Experiment fortgesetzt werden soll. :type resume_from: azureml.data.datapath.DataPath :p aram max_run_duration_seconds: Die maximal zulässige Zeit für die Ausführung. Azure ML versucht automatisch,
abbrechen, wenn die Ausführung länger dauert als dieser Wert.
Konstruktor
Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)
Parameter
| Name | Beschreibung |
|---|---|
|
source_directory
Erforderlich
|
Ein lokales Verzeichnis mit Experimentkonfigurations- und Codedateien, die für einen Schulungsauftrag erforderlich sind. |
|
compute_target
Erforderlich
|
AbstractComputeTarget oder
str
Das Computeziel, in dem die Schulung stattfinden wird. Dies kann entweder ein Objekt oder die Zeichenfolge "local" sein. |
|
vm_size
Erforderlich
|
Die VM-Größe des Computeziels, das für die Schulung erstellt wird. Unterstützte Werte: Eine beliebige Größe eines virtuellen Azure-Computers. |
|
vm_priority
Erforderlich
|
Die VM-Priorität des Computeziels, das für die Schulung erstellt wird. Wenn nicht angegeben, wird "dedicated" verwendet. Unterstützte Werte: "dedicated" und "lowpriority". Dies wird nur wirksam, wenn der |
|
entry_script
Erforderlich
|
Der relative Pfad zu der Datei, die zum Starten der Schulung verwendet wird. |
|
script_params
Erforderlich
|
Ein Wörterbuch mit Befehlszeilenargumenten, das an das in |
|
node_count
Erforderlich
|
Die Anzahl der Knoten im Computeziel, das für die Schulung verwendet wird. Wenn größer als 1, wird ein MPI verteilter Auftrag ausgeführt. |
|
process_count_per_node
Erforderlich
|
Die Anzahl der Prozesse (oder "Worker"), die auf jedem Knoten ausgeführt werden sollen. Wenn größer als 1, wird ein MPI verteilter Auftrag ausgeführt. Nur das AmlCompute Ziel wird für verteilte Aufträge unterstützt. |
|
distributed_backend
Erforderlich
|
Das Kommunikations-Back-End für verteilte Schulungen. VERALTET. Verwenden Sie den Parameter Unterstützte Werte: 'mpi'. "mpi" stellt MPI/Horovod dar. Dieser Parameter ist erforderlich, wenn Wenn |
|
distributed_training
Erforderlich
|
Parameter zum Ausführen eines verteilten Schulungsauftrags. Verwenden Sie Mpi zum Ausführen eines verteilten Auftrags mit MPI-Back-End das Objekt, um anzugeben |
|
use_gpu
Erforderlich
|
Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, GPUs unterstützen soll.
Wenn true, wird ein GPU-basiertes Standard-Docker-Image in der Umgebung verwendet. Bei "false" wird ein CPU-basiertes Image verwendet. Standardmäßige Docker-Images (CPU oder GPU) werden nur verwendet, wenn der |
|
use_docker
Erforderlich
|
Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, Docker-basiert sein soll. |
|
custom_docker_base_image
Erforderlich
|
Der Name des Docker-Images, aus dem das für Schulungen zu verwendende Image erstellt wird. VERALTET. Verwenden Sie den Parameter Wenn nicht festgelegt, wird ein CPU-basiertes Standardimage als Basisimage verwendet. |
|
custom_docker_image
Erforderlich
|
Der Name des Docker-Images, aus dem das für Schulungen zu verwendende Image erstellt wird. Wenn nicht festgelegt, wird ein CPU-basiertes Standardimage als Basisimage verwendet. Geben Sie nur Bilder an, die in öffentlichen Docker-Repositorys (Docker Hub) verfügbar sind. Wenn Sie ein Image aus einem privaten Docker-Repository verwenden möchten, verwenden Sie stattdessen den Parameter des |
|
image_registry_details
Erforderlich
|
Die Details der Docker-Imageregistrierung. |
|
user_managed
Erforderlich
|
Gibt an, ob Azure ML eine vorhandene Python-Umgebung wiederverwendet. Wenn false, wird eine Python-Umgebung basierend auf der Conda-Abhängigkeitsspezifikation erstellt. |
|
conda_packages
Erforderlich
|
Eine Liste der Zeichenfolgen, die Conda-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen. |
|
pip_packages
Erforderlich
|
Eine Liste der Zeichenfolgen, die Pip-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen. |
|
conda_dependencies_file_path
Erforderlich
|
Der relative Pfad zur Conda-Abhängigkeiten yaml-Datei. Wenn angegeben, installiert Azure ML keine Framework-bezogenen Pakete. VERALTET. Verwenden Sie den Geben Sie entweder |
|
pip_requirements_file_path
Erforderlich
|
Der relative Pfad zur Pip-Anforderungstextdatei. VERALTET. Verwenden Sie den Parameter Dieser Parameter kann in Kombination mit dem |
|
conda_dependencies_file
Erforderlich
|
Der relative Pfad zur Conda-Abhängigkeiten yaml-Datei. Wenn angegeben, installiert Azure ML keine Framework-bezogenen Pakete. |
|
pip_requirements_file
Erforderlich
|
Der relative Pfad zur Pip-Anforderungstextdatei.
Dieser Parameter kann in Kombination mit dem |
|
environment_variables
Erforderlich
|
Ein Wörterbuch mit Namen und Werten für Umgebungsvariablen. Diese Umgebungsvariablen werden für den Prozess festgelegt, bei dem Benutzerskript ausgeführt wird. |
|
environment_definition
Erforderlich
|
Die Umgebungsdefinition für das Experiment. Es enthält PythonSection-, DockerSection- und Umgebungsvariablen. Jede Umgebungsoption, die nicht direkt über andere Parameter für die Estimator-Konstruktion verfügbar gemacht wird, kann mit diesem Parameter festgelegt werden. Wenn dieser Parameter angegeben wird, hat er Vorrang vor anderen umgebungsbezogenen Parametern wie |
|
inputs
Erforderlich
|
Eine Liste von objekten, DataReference die DatasetConsumptionConfig als Eingabe verwendet werden sollen. |
|
source_directory_data_store
Erforderlich
|
Der Sicherungsdatenspeicher für die Projektfreigabe. |
|
shm_size
Erforderlich
|
Die Größe des freigegebenen Speicherblocks des Docker-Containers. Wenn nicht festgelegt, wird der Standard-azureml.core.environment._DEFAULT_SHM_SIZE verwendet. Weitere Informationen finden Sie in der Referenz zur Docker-Ausführung. |
|
resume_from
Erforderlich
|
Der Datenpfad, der die Prüfpunkt- oder Modelldateien enthält, aus denen das Experiment fortgesetzt werden soll. |
|
max_run_duration_seconds
Erforderlich
|
Die maximal zulässige Zeit für die Ausführung. Azure ML versucht, die Ausführung automatisch abzubrechen, wenn dieser Wert länger dauert. |
|
source_directory
Erforderlich
|
Ein lokales Verzeichnis mit Experimentkonfigurations- und Codedateien, die für einen Schulungsauftrag erforderlich sind. |
|
compute_target
Erforderlich
|
AbstractComputeTarget oder
str
Das Computeziel, in dem die Schulung stattfinden wird. Dies kann entweder ein Objekt oder die Zeichenfolge "local" sein. |
|
vm_size
Erforderlich
|
Die VM-Größe des Computeziels, das für die Schulung erstellt wird. Unterstützte Werte: Eine beliebige Größe eines virtuellen Azure-Computers. |
|
vm_priority
Erforderlich
|
Die VM-Priorität des Computeziels, das für die Schulung erstellt wird. Wenn nicht angegeben, wird "dedicated" verwendet. Unterstützte Werte: "dedicated" und "lowpriority". Dies wird nur wirksam, wenn der |
|
entry_script
Erforderlich
|
Der relative Pfad zu der Datei, die zum Starten der Schulung verwendet wird. |
|
script_params
Erforderlich
|
Ein Wörterbuch mit Befehlszeilenargumenten, das an das in |
|
node_count
Erforderlich
|
Die Anzahl der Knoten im Computeziel, das für die Schulung verwendet wird. Wenn größer als 1, wird ein verteilter MPI-Auftrag ausgeführt. Nur das AmlCompute Ziel wird für verteilte Aufträge unterstützt. |
|
process_count_per_node
Erforderlich
|
Die Anzahl der Prozesse pro Knoten. Wenn größer als 1, wird ein verteilter MPI-Auftrag ausgeführt. Nur das AmlCompute Ziel wird für verteilte Aufträge unterstützt. |
|
distributed_backend
Erforderlich
|
Das Kommunikations-Back-End für verteilte Schulungen. VERALTET. Verwenden Sie den Parameter Unterstützte Werte: 'mpi'. "mpi" stellt MPI/Horovod dar. Dieser Parameter ist erforderlich, wenn Wenn |
|
distributed_training
Erforderlich
|
Parameter zum Ausführen eines verteilten Schulungsauftrags. Verwenden Sie Mpi zum Ausführen eines verteilten Auftrags mit MPI-Back-End das Objekt, um anzugeben |
|
use_gpu
Erforderlich
|
Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, GPUs unterstützen soll.
Wenn true, wird ein GPU-basiertes Standard-Docker-Image in der Umgebung verwendet. Bei "false" wird ein CPU-basiertes Image verwendet. Standardmäßige Docker-Images (CPU oder GPU) werden nur verwendet, wenn der |
|
use_docker
Erforderlich
|
Gibt an, ob die Umgebung, in der das Experiment ausgeführt werden soll, Docker-basiert sein soll. |
|
custom_docker_base_image
Erforderlich
|
Der Name des Docker-Images, aus dem das für Schulungen zu verwendende Image erstellt wird. VERALTET. Verwenden Sie den Parameter Wenn nicht festgelegt, wird ein CPU-basiertes Standardimage als Basisimage verwendet. |
|
custom_docker_image
Erforderlich
|
Der Name des Docker-Images, aus dem das für Schulungen zu verwendende Image erstellt wird. Wenn nicht festgelegt, wird ein CPU-basiertes Standardimage als Basisimage verwendet. Geben Sie nur Bilder an, die in öffentlichen Docker-Repositorys (Docker Hub) verfügbar sind. Wenn Sie ein Image aus einem privaten Docker-Repository verwenden möchten, verwenden Sie stattdessen den Parameter des |
|
image_registry_details
Erforderlich
|
Die Details der Docker-Imageregistrierung. |
|
user_managed
Erforderlich
|
Gibt an, ob Azure ML eine vorhandene Python-Umgebung wiederverwendet. Wenn false, wird eine Python-Umgebung basierend auf der Conda-Abhängigkeitsspezifikation erstellt. |
|
conda_packages
Erforderlich
|
Eine Liste der Zeichenfolgen, die Conda-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen. |
|
pip_packages
Erforderlich
|
Eine Liste der Zeichenfolgen, die Pip-Pakete darstellen, die der Python-Umgebung für das Experiment hinzugefügt werden sollen. |
|
conda_dependencies_file_path
Erforderlich
|
Der relative Pfad zur Conda-Abhängigkeiten yaml-Datei. Wenn angegeben, installiert Azure ML keine Framework-bezogenen Pakete. VERALTET. Verwenden Sie den Geben Sie entweder |
|
pip_requirements_file_path
Erforderlich
|
Der relative Pfad zur Pip-Anforderungstextdatei. VERALTET. Verwenden Sie den Parameter Dies kann in Kombination mit dem |
|
pip_requirements_file
Erforderlich
|
Der relative Pfad zur Pip-Anforderungstextdatei.
Dies kann in Kombination mit dem |
|
environment_variables
Erforderlich
|
Ein Wörterbuch mit Namen und Werten für Umgebungsvariablen. Diese Umgebungsvariablen werden für den Prozess festgelegt, bei dem Benutzerskript ausgeführt wird. |
|
environment_definition
Erforderlich
|
Die Umgebungsdefinition für das Experiment. Es enthält PythonSection-, DockerSection- und Umgebungsvariablen. Jede Umgebungsoption, die nicht direkt über andere Parameter für die Estimator-Konstruktion verfügbar gemacht wird, kann mit diesem Parameter festgelegt werden. Wenn dieser Parameter angegeben wird, hat er Vorrang vor anderen umgebungsbezogenen Parametern wie |
|
inputs
Erforderlich
|
Eine Liste von objekten, DataReference die DatasetConsumptionConfig als Eingabe verwendet werden sollen. |
|
source_directory_data_store
Erforderlich
|
Der Sicherungsdatenspeicher für die Projektfreigabe. |
|
shm_size
Erforderlich
|
Die Größe des freigegebenen Speicherblocks des Docker-Containers. Wenn sie nicht festgelegt ist, wird die Standardeinstellung |
|
_disable_validation
Erforderlich
|
Deaktivieren Sie die Skriptüberprüfung vor dem Ausführen der Übermittlung. Der Standardwert ist True. |
|
_show_lint_warnings
Erforderlich
|
Anzeigen von Skript-Lintingwarnungen. Der Standardwert ist False. |
|
_show_package_warnings
Erforderlich
|
Paketüberprüfungswarnungen anzeigen. Der Standardwert ist False. |