Udostępnij przez


Estimator Klasa

Reprezentuje ogólny narzędzie do szacowania w celu trenowania danych przy użyciu dowolnej dostarczonej platformy.

PRZESTARZAŁE. ScriptRunConfig Użyj obiektu z własnym zdefiniowanym środowiskiem lub środowiskiem nadzorowanym usługi Azure ML. Aby zapoznać się z wprowadzeniem do konfigurowania przebiegów eksperymentów za pomocą polecenia ScriptRunConfig, zobacz Konfigurowanie i przesyłanie przebiegów trenowania.

Ta klasa jest przeznaczona do użytku z platformami uczenia maszynowego, które nie mają jeszcze wstępnie skonfigurowanego narzędzia do szacowania usługi Azure Machine Learning. Wstępnie skonfigurowane narzędzia do szacowania istnieją dla systemu Chainer, PyTorch, TensorFlowi SKLearn. Aby utworzyć narzędzie do szacowania, które nie jest wstępnie skonfigurowane, zobacz Trenowanie modeli za pomocą usługi Azure Machine Learning przy użyciu narzędzia do szacowania.

Klasa narzędzia do szacowania opakowuje informacje o konfiguracji, aby uprościć zadania określania sposobu wykonywania skryptu. Obsługuje on wykonywanie z jednym węzłem oraz wykonywanie wielu węzłów. Uruchomienie narzędzia do szacowania powoduje utworzenie modelu w katalogu wyjściowym określonym w skry skrygcie szkoleniowym.

Zainicjuj narzędzie do szacowania.

azureml.core.environment._DEFAULT_SHM_SIZE jest używany. Aby uzyskać więcej informacji, zobacz Dokumentacja uruchamiania platformy Docker. :type shm_size: str :p aram resume_from: ścieżka danych zawierająca pliki punktu kontrolnego lub modelu, z których ma być wznowione eksperyment. :type resume_from: azureml.data.datapath.DataPath :p aram max_run_duration_seconds: maksymalny dozwolony czas uruchomienia. Usługa Azure ML podejmie próbę automatycznego

anuluj przebieg, jeśli trwa dłużej niż ta wartość.

Konstruktor

Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)

Parametry

Nazwa Opis
source_directory
Wymagane
str

Katalog lokalny zawierający pliki konfiguracji eksperymentu i kodu potrzebne do zadania szkoleniowego.

compute_target
Wymagane

Docelowy obiekt obliczeniowy, w którym nastąpi trenowanie. Może to być obiekt lub ciąg "local".

vm_size
Wymagane
str

Rozmiar maszyny wirtualnej docelowego obiektu obliczeniowego, który zostanie utworzony na potrzeby trenowania. Obsługiwane wartości: dowolny rozmiar maszyny wirtualnej platformy Azure.

vm_priority
Wymagane
str

Priorytet maszyny wirtualnej docelowego obiektu obliczeniowego, który zostanie utworzony na potrzeby trenowania. Jeśli nie zostanie określony, zostanie użyta wartość "dedicated".

Obsługiwane wartości: "dedykowane" i "lowpriority".

Ma to wpływ tylko wtedy, gdy vm_size parametr jest określony w danych wejściowych.

entry_script
Wymagane
str

Ścieżka względna do pliku użytego do rozpoczęcia trenowania.

script_params
Wymagane

Słownik argumentów wiersza polecenia do przekazania do skryptu szkoleniowego określonego w pliku entry_script.

node_count
Wymagane
int

Liczba węzłów w docelowym obiekcie obliczeniowym używanym do trenowania. Jeśli jest większe niż 1, zadanie rozproszone MPI zostanie uruchomione.

process_count_per_node
Wymagane
int

Liczba procesów (lub procesów roboczych) uruchamianych w każdym węźle. Jeśli jest większe niż 1, zadanie rozproszone MPI zostanie uruchomione. Tylko element docelowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych.

distributed_backend
Wymagane
str

Zaplecze komunikacji na potrzeby trenowania rozproszonego.

PRZESTARZAŁE. Użyj parametru distributed_training .

Obsługiwane wartości: "mpi". Element "mpi" reprezentuje mpI/Horovod.

Ten parametr jest wymagany, gdy node_count lub process_count_per_node> 1.

Gdy node_count == 1 i process_count_per_node == 1, nie będą używane żadne zaplecze, chyba że zaplecze jest jawnie ustawione. Tylko element docelowy AmlCompute jest obsługiwany w przypadku trenowania rozproszonego.

distributed_training
Wymagane
Mpi

Parametry uruchamiania rozproszonego zadania trenowania.

Aby uruchomić zadanie rozproszone z zapleczem MPI, użyj Mpi obiektu do określenia .process_count_per_node

use_gpu
Wymagane

Wskazuje, czy środowisko do uruchomienia eksperymentu powinno obsługiwać procesory GPU. Jeśli to prawda, domyślny obraz platformy Docker oparty na procesorze GPU będzie używany w środowisku. Jeśli wartość false, zostanie użyty obraz oparty na procesorze CPU. Domyślne obrazy platformy Docker (procesor CPU lub procesor GPU) będą używane tylko wtedy, gdy custom_docker_image parametr nie jest ustawiony. To ustawienie jest używane tylko w docelowych obiektach obliczeniowych z obsługą platformy Docker.

use_docker
Wymagane

Określa, czy środowisko do uruchomienia eksperymentu powinno być oparte na platformie Docker.

custom_docker_base_image
Wymagane
str

Nazwa obrazu platformy Docker, z którego obraz do użycia na potrzeby trenowania zostanie skompilowany.

PRZESTARZAŁE. Użyj parametru custom_docker_image .

Jeśli nie zostanie ustawiony, domyślny obraz oparty na procesorze CPU będzie używany jako obraz podstawowy.

custom_docker_image
Wymagane
str

Nazwa obrazu platformy Docker, z którego obraz do użycia na potrzeby trenowania zostanie skompilowany. Jeśli nie zostanie ustawiony, domyślny obraz oparty na procesorze CPU będzie używany jako obraz podstawowy. Określ tylko obrazy dostępne w publicznych repozytoriach platformy Docker (Docker Hub). Aby użyć obrazu z prywatnego repozytorium platformy Docker, użyj zamiast tego parametru konstruktora environment_definition .

image_registry_details
Wymagane

Szczegóły rejestru obrazów platformy Docker.

user_managed
Wymagane

Określa, czy usługa Azure ML ponownie używa istniejącego środowiska języka Python. Jeśli wartość false, środowisko języka Python jest tworzone na podstawie specyfikacji zależności conda.

conda_packages
Wymagane

Lista ciągów reprezentujących pakiety Conda, które mają zostać dodane do środowiska języka Python na potrzeby eksperymentu.

pip_packages
Wymagane

Lista ciągów reprezentujących pakiety do dodania do środowiska języka Python na potrzeby eksperymentu.

conda_dependencies_file_path
Wymagane
str

Ścieżka względna do pliku yaml zależności conda. Jeśli zostanie określony, usługa Azure ML nie zainstaluje żadnych pakietów powiązanych ze strukturą.

PRZESTARZAŁE. Użyj paramentatora conda_dependencies_file .

Określ wartość conda_dependencies_file_path lub conda_dependencies_file. Jeśli oba są określone, conda_dependencies_file jest używany.

pip_requirements_file_path
Wymagane
str

Ścieżka względna do pliku tekstowego wymagań.

PRZESTARZAŁE. Użyj parametru pip_requirements_file .

Ten parametr można określić w połączeniu z parametrem pip_packages . Określ wartość pip_requirements_file_path lub pip_requirements_file. Jeśli oba są określone, pip_requirements_file jest używany.

conda_dependencies_file
Wymagane
str

Ścieżka względna do pliku yaml zależności conda. Jeśli zostanie określony, usługa Azure ML nie zainstaluje żadnych pakietów powiązanych ze strukturą.

pip_requirements_file
Wymagane
str

Ścieżka względna do pliku tekstowego wymagań. Ten parametr można określić w połączeniu z parametrem pip_packages .

environment_variables
Wymagane

Słownik nazw zmiennych środowiskowych i wartości. Te zmienne środowiskowe są ustawiane w procesie wykonywania skryptu użytkownika.

environment_definition
Wymagane

Definicja środowiska dla eksperymentu. Obejmuje ona zmienne środowiskowe PythonSection, DockerSection i . Za pomocą tego parametru można ustawić dowolną opcję środowiska, która nie jest bezpośrednio uwidoczniona za pośrednictwem innych parametrów konstrukcji narzędzia do szacowania. Jeśli ten parametr zostanie określony, będzie on mieć pierwszeństwo przed innymi parametrami związanymi z środowiskiem, takimi jak use_gpu, , custom_docker_imageconda_packageslub pip_packages. Błędy będą zgłaszane w przypadku nieprawidłowych kombinacji.

inputs
Wymagane

Lista obiektów lubDataReference, które DatasetConsumptionConfig mają być używane jako dane wejściowe.

source_directory_data_store
Wymagane

Magazyn danych zapasowych dla udziału projektu.

shm_size
Wymagane
str

Rozmiar bloku pamięci udostępnionej kontenera platformy Docker. Jeśli nie zostanie ustawiona, zostanie użyta domyślna azureml.core.environment._DEFAULT_SHM_SIZE. Aby uzyskać więcej informacji, zobacz Dokumentacja uruchamiania platformy Docker.

resume_from
Wymagane

Ścieżka danych zawierająca pliki punktu kontrolnego lub modelu, z których ma być wznowione eksperyment.

max_run_duration_seconds
Wymagane
int

Maksymalny dozwolony czas dla przebiegu. Usługa Azure ML podejmie próbę automatycznego anulowania przebiegu, jeśli będzie trwać dłużej niż ta wartość.

source_directory
Wymagane
str

Katalog lokalny zawierający pliki konfiguracji eksperymentu i kodu potrzebne do zadania szkoleniowego.

compute_target
Wymagane

Docelowy obiekt obliczeniowy, w którym nastąpi trenowanie. Może to być obiekt lub ciąg "local".

vm_size
Wymagane
str

Rozmiar maszyny wirtualnej docelowego obiektu obliczeniowego, który zostanie utworzony na potrzeby trenowania. Obsługiwane wartości: dowolny rozmiar maszyny wirtualnej platformy Azure.

vm_priority
Wymagane
str

Priorytet maszyny wirtualnej docelowego obiektu obliczeniowego, który zostanie utworzony na potrzeby trenowania. Jeśli nie zostanie określony, zostanie użyta wartość "dedicated".

Obsługiwane wartości: "dedykowane" i "lowpriority".

Ma to wpływ tylko wtedy, gdy vm_size parametr jest określony w danych wejściowych.

entry_script
Wymagane
str

Ścieżka względna do pliku użytego do rozpoczęcia trenowania.

script_params
Wymagane

Słownik argumentów wiersza polecenia do przekazania do skryptu szkoleniowego określonego w pliku entry_script.

node_count
Wymagane
int

Liczba węzłów w docelowym obiekcie obliczeniowym używanym do trenowania. Jeśli jest większe niż 1, zadanie rozproszone MPI zostanie uruchomione. Tylko element docelowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych.

process_count_per_node
Wymagane
int

Liczba procesów na węzeł. Jeśli jest większe niż 1, zadanie rozproszone MPI zostanie uruchomione. Tylko element docelowy AmlCompute jest obsługiwany w przypadku zadań rozproszonych.

distributed_backend
Wymagane
str

Zaplecze komunikacji na potrzeby trenowania rozproszonego.

PRZESTARZAŁE. Użyj parametru distributed_training .

Obsługiwane wartości: "mpi". Element "mpi" reprezentuje mpI/Horovod.

Ten parametr jest wymagany, gdy node_count lub process_count_per_node> 1.

Gdy node_count == 1 i process_count_per_node == 1, nie będą używane żadne zaplecze, chyba że zaplecze jest jawnie ustawione. Tylko element docelowy AmlCompute jest obsługiwany w przypadku trenowania rozproszonego.

distributed_training
Wymagane
Mpi

Parametry uruchamiania rozproszonego zadania trenowania.

Aby uruchomić zadanie rozproszone z zapleczem MPI, użyj Mpi obiektu do określenia .process_count_per_node

use_gpu
Wymagane

Określa, czy środowisko do uruchomienia eksperymentu powinno obsługiwać procesory GPU. Jeśli to prawda, domyślny obraz platformy Docker oparty na procesorze GPU będzie używany w środowisku. Jeśli wartość false, zostanie użyty obraz oparty na procesorze CPU. Domyślne obrazy platformy Docker (procesor CPU lub procesor GPU) będą używane tylko wtedy, gdy custom_docker_image parametr nie jest ustawiony. To ustawienie jest używane tylko w docelowych obiektach obliczeniowych z obsługą platformy Docker.

use_docker
Wymagane

Określa, czy środowisko do uruchomienia eksperymentu powinno być oparte na platformie Docker.

custom_docker_base_image
Wymagane
str

Nazwa obrazu platformy Docker, z którego obraz do użycia na potrzeby trenowania zostanie skompilowany.

PRZESTARZAŁE. Użyj parametru custom_docker_image .

Jeśli nie zostanie ustawiony, domyślny obraz oparty na procesorze CPU będzie używany jako obraz podstawowy.

custom_docker_image
Wymagane
str

Nazwa obrazu platformy Docker, z którego obraz do użycia na potrzeby trenowania zostanie skompilowany. Jeśli nie zostanie ustawiony, domyślny obraz oparty na procesorze CPU będzie używany jako obraz podstawowy. Określ tylko obrazy dostępne w publicznych repozytoriach platformy Docker (Docker Hub). Aby użyć obrazu z prywatnego repozytorium platformy Docker, użyj zamiast tego parametru konstruktora environment_definition .

image_registry_details
Wymagane

Szczegóły rejestru obrazów platformy Docker.

user_managed
Wymagane

Określa, czy usługa Azure ML ponownie używa istniejącego środowiska języka Python. Jeśli wartość false, środowisko języka Python jest tworzone na podstawie specyfikacji zależności conda.

conda_packages
Wymagane

Lista ciągów reprezentujących pakiety Conda, które mają zostać dodane do środowiska języka Python na potrzeby eksperymentu.

pip_packages
Wymagane

Lista ciągów reprezentujących pakiety do dodania do środowiska języka Python na potrzeby eksperymentu.

conda_dependencies_file_path
Wymagane

Ścieżka względna do pliku yaml zależności conda. Jeśli zostanie określony, usługa Azure ML nie zainstaluje żadnych pakietów powiązanych ze strukturą.

PRZESTARZAŁE. Użyj paramentatora conda_dependencies_file .

Określ wartość conda_dependencies_file_path lub conda_dependencies_file. Jeśli oba są określone, conda_dependencies_file jest używany.

pip_requirements_file_path
Wymagane

Ścieżka względna do pliku tekstowego wymagań.

PRZESTARZAŁE. Użyj parametru pip_requirements_file .

Można to podać w połączeniu z parametrem pip_packages . Określ wartość pip_requirements_file_path lub pip_requirements_file. Jeśli oba są określone, pip_requirements_file jest używany.

pip_requirements_file
Wymagane
str

Ścieżka względna do pliku tekstowego wymagań. Można to podać w połączeniu z parametrem pip_packages .

environment_variables
Wymagane

Słownik nazw zmiennych środowiskowych i wartości. Te zmienne środowiskowe są ustawiane w procesie wykonywania skryptu użytkownika.

environment_definition
Wymagane

Definicja środowiska dla eksperymentu. Obejmuje ona zmienne środowiskowe PythonSection, DockerSection i . Za pomocą tego parametru można ustawić dowolną opcję środowiska, która nie jest bezpośrednio uwidoczniona za pośrednictwem innych parametrów konstrukcji narzędzia do szacowania. Jeśli ten parametr zostanie określony, będzie on mieć pierwszeństwo przed innymi parametrami związanymi z środowiskiem, takimi jak use_gpu, , custom_docker_imageconda_packageslub pip_packages. Błędy będą zgłaszane w przypadku nieprawidłowych kombinacji.

inputs
Wymagane

Lista obiektów lubDataReference, które DatasetConsumptionConfig mają być używane jako dane wejściowe.

source_directory_data_store
Wymagane

Magazyn danych zapasowych dla udziału projektu.

shm_size
Wymagane

Rozmiar bloku pamięci udostępnionej kontenera platformy Docker. Jeśli nie zostanie ustawiona, wartość domyślna

_disable_validation
Wymagane

Wyłącz walidację skryptu przed przesłaniem. Wartość domyślna to True.

_show_lint_warnings
Wymagane

Pokaż ostrzeżenia dotyczące lintingu skryptu. Wartość domyślna to False.

_show_package_warnings
Wymagane

Pokaż ostrzeżenia dotyczące walidacji pakietu. Wartość domyślna to False.