AutoMLConfig Classe
Representa a configuração para enviar um experimento de ML automatizado no Azure Machine Learning.
Esse objeto de configuração contém e persiste os parâmetros para configurar a execução do experimento, bem como os dados de treinamento a serem usados em tempo de execução. Para obter diretrizes sobre como selecionar suas configurações, consulte https://aka.ms/AutoMLConfig.
Crie uma AutoMLConfig.
Construtor
AutoMLConfig(task: str, path: str | None = None, iterations: int | None = None, primary_metric: str | None = None, positive_label: Any | None = None, compute_target: Any | None = None, spark_context: Any | None = None, X: Any | None = None, y: Any | None = None, sample_weight: Any | None = None, X_valid: Any | None = None, y_valid: Any | None = None, sample_weight_valid: Any | None = None, cv_splits_indices: List[List[Any]] | None = None, validation_size: float | None = None, n_cross_validations: int | str | None = None, y_min: float | None = None, y_max: float | None = None, num_classes: int | None = None, featurization: str | FeaturizationConfig = 'auto', max_cores_per_iteration: int = 1, max_concurrent_iterations: int = 1, iteration_timeout_minutes: int | None = None, mem_in_mb: int | None = None, enforce_time_on_windows: bool = True, experiment_timeout_hours: float | None = None, experiment_exit_score: float | None = None, enable_early_stopping: bool = True, blocked_models: List[str] | None = None, blacklist_models: List[str] | None = None, exclude_nan_labels: bool = True, verbosity: int = 20, enable_tf: bool = False, model_explainability: bool = True, allowed_models: List[str] | None = None, whitelist_models: List[str] | None = None, enable_onnx_compatible_models: bool = False, enable_voting_ensemble: bool = True, enable_stack_ensemble: bool | None = None, debug_log: str = 'automl.log', training_data: Any | None = None, validation_data: Any | None = None, test_data: Any | None = None, test_size: float | None = None, label_column_name: str | None = None, weight_column_name: str | None = None, cv_split_column_names: List[str] | None = None, enable_local_managed: bool = False, enable_dnn: bool | None = None, forecasting_parameters: ForecastingParameters | None = None, **kwargs: Any)
Parâmetros
| Nome | Description |
|---|---|
|
task
Obrigatório
|
O tipo de tarefa a ser executada. Os valores podem ser "classificação", "regressão" ou "previsão", dependendo do tipo de problema de ML automatizado a ser resolvido. |
|
path
Obrigatório
|
O caminho completo para a pasta de projeto do Azure Machine Learning. Se não for especificado, o padrão é usar o diretório atual ou ".". |
|
iterations
Obrigatório
|
O número total de diferentes combinações de algoritmos e parâmetros a serem testadas durante um experimento de ML automatizado. Se não for especificado, o padrão é 1000 iterações. |
|
primary_metric
Obrigatório
|
A métrica que o Machine Learning Automatizado otimizará para seleção de modelo. O Machine Learning automatizado coleta mais métricas do que pode otimizar. Você pode usar get_primary_metrics para obter uma lista de métricas válidas para a tarefa fornecida. Para obter mais informações sobre como as métricas são calculadas, consulte https://docs.microsoft.com/azure/machine-learning/how-to-configure-auto-train#primary-metric. Se não for especificado, a precisão será usada para tarefas de classificação, a média de raiz normalizada ao quadrado é usada para tarefas de previsão e regressão, a precisão é usada para classificação de imagem e classificação de vários rótulos de imagem e a precisão média média é usada para detecção de objetos de imagem. |
|
positive_label
Obrigatório
|
O rótulo de classe positivo que o Machine Learning Automatizado usará para calcular as métricas binárias. As métricas binárias são calculadas em duas condições para tarefas de classificação:
Para obter mais informações sobre classificação, métricas de check-out para cenários de classificação. |
|
compute_target
Obrigatório
|
O destino de computação do Azure Machine Learning no qual executar o experimento do Machine Learning Automatizado. Confira https://docs.microsoft.com/en-us/azure/machine-learning/concept-automated-ml#local-remote mais informações sobre destinos de computação. |
|
spark_context
Obrigatório
|
<xref:SparkContext>
O contexto do Spark. Aplicável somente quando usado dentro do ambiente do Azure Databricks/Spark. |
|
X
Obrigatório
|
Os recursos de treinamento a serem usados ao ajustar pipelines durante um experimento. Essa configuração está sendo preterida. Em vez disso, use training_data e label_column_name. |
|
y
Obrigatório
|
Os rótulos de treinamento a serem usados ao ajustar pipelines durante um experimento. Esse é o valor que seu modelo preverá. Essa configuração está sendo preterida. Em vez disso, use training_data e label_column_name. |
|
sample_weight
Obrigatório
|
O peso a ser dado a cada exemplo de treinamento ao executar pipelines de ajuste, cada linha deve corresponder a uma linha em dados X e y. Especifique |
|
X_valid
Obrigatório
|
Recursos de validação a serem usados ao ajustar pipelines durante um experimento. Se especificado, então |
|
y_valid
Obrigatório
|
Rótulos de validação a serem usados ao ajustar pipelines durante um experimento. Ambos |
|
sample_weight_valid
Obrigatório
|
O peso a ser dado a cada exemplo de validação ao executar pipelines de pontuação, cada linha deve corresponder a uma linha em dados X e y. Especifique |
|
cv_splits_indices
Obrigatório
|
Índices em que os dados de treinamento serão divididos para validação cruzada. Cada linha é uma dobra cruzada separada e, dentro de cada dobra cruzada, fornece duas matrizes numpy, a primeira com os índices para exemplos a serem usados para dados de treinamento e o segundo com os índices a serem usados para os dados de validação. ou seja, [[t1, v1], [t2, v2], ...] onde t1 é o índice de treinamento para a primeira dobra cruzada e v1 é o índice de validação para a primeira dobra cruzada. Para especificar dados existentes como dados de validação, use |
|
validation_size
Obrigatório
|
Qual fração dos dados a serem armazenados para validação quando os dados de validação do usuário não forem especificados. Isso deve estar entre 0.0 e 1.0 não inclusivo. Especifique Para obter mais informações, consulte Configurar divisões de dados e validação cruzada no machine learning automatizado. |
|
n_cross_validations
Obrigatório
|
Quantas validações cruzadas serão executadas quando os dados de validação do usuário não forem especificados. Especifique Para obter mais informações, consulte Configurar divisões de dados e validação cruzada no machine learning automatizado. |
|
y_min
Obrigatório
|
Valor mínimo de y para um experimento de regressão. A combinação de e |
|
y_max
Obrigatório
|
Valor máximo de y para um experimento de regressão. A combinação de e |
|
num_classes
Obrigatório
|
O número de classes nos dados do rótulo para um experimento de classificação. Essa configuração está sendo preterida. Em vez disso, esse valor será computado a partir dos dados. |
|
featurization
Obrigatório
|
'auto' / 'off' / Indicador FeaturizationConfig para saber se a etapa de featurization deve ser feita automaticamente ou não, ou se a caracterização personalizada deve ser usada. Observação: se os dados de entrada forem esparsos, a definição de recursos não poderá ser ativada. O tipo de coluna é detectado automaticamente. Com base no pré-processamento/em destaque do tipo de coluna detectado, é feito da seguinte maneira:
Mais detalhes podem ser encontrados no artigo Configurar experimentos de ML automatizados no Python. Para personalizar a etapa de featurization, forneça um objeto FeaturizationConfig. Atualmente, a caracterização personalizada dá suporte ao bloqueio de um conjunto de transformadores, atualização da finalidade da coluna, edição de parâmetros de transformador e remoção de colunas. Para obter mais informações, consulte Personalizar a engenharia de recursos. Observação: os recursos de timeseries são tratados separadamente quando o tipo de tarefa é definido como previsão independente desse parâmetro. |
|
max_cores_per_iteration
Obrigatório
|
O número máximo de threads a serem usados para uma determinada iteração de treinamento. Valores aceitáveis:
|
|
max_concurrent_iterations
Obrigatório
|
Representa o número máximo de iterações que seriam executadas em paralelo. O valor padrão é 1.
|
|
iteration_timeout_minutes
Obrigatório
|
Tempo máximo em minutos para o qual cada iteração pode ser executada antes de terminar. Se não for especificado, um valor de 1 mês ou 43.200 minutos será usado. |
|
mem_in_mb
Obrigatório
|
Uso máximo de memória para o qual cada iteração pode ser executada antes de terminar. Se não for especificado, um valor de 1 PB ou 1073741824 MB será usado. |
|
enforce_time_on_windows
Obrigatório
|
Se deseja impor um limite de tempo no treinamento de modelo em cada iteração no Windows. O padrão é True. Se estiver em execução em um arquivo de script python (.py), consulte a documentação para permitir limites de recursos no Windows. |
|
experiment_timeout_hours
Obrigatório
|
Quantidade máxima de tempo em horas que todas as iterações combinadas podem levar antes que o experimento seja encerrado. Pode ser um valor decimal como 0,25 representando 15 minutos. Se não for especificado, o tempo limite padrão do experimento será de 6 dias. Para especificar um tempo limite menor ou igual a 1 hora, verifique se o tamanho do conjunto de dados não é maior que 10.000.000 (coluna de linhas vezes) ou um resultado de erro. |
|
experiment_exit_score
Obrigatório
|
Pontuação de destino para experimento. O experimento termina depois que essa pontuação é atingida. Se não for especificado (sem critérios), o experimento será executado até que nenhum progresso adicional seja feito na métrica primária. Para obter mais informações sobre critérios de saída, consulte este artigo. |
|
enable_early_stopping
Obrigatório
|
Se será possível habilitar a terminação antecipada se a pontuação não estiver melhorando no curto prazo. O padrão é True. Lógica de parada antecipada:
|
|
blocked_models
Obrigatório
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Uma lista de algoritmos a serem ignorados para um experimento. Se |
|
blacklist_models
Obrigatório
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Parâmetro preterido, use blocked_models em vez disso. |
|
exclude_nan_labels
Obrigatório
|
Se deve excluir linhas com valores NaN no rótulo. O padrão é True. |
|
verbosity
Obrigatório
|
O nível de verbosidade para gravar no arquivo de log. O padrão é INFO ou 20. Os valores aceitáveis são definidos na biblioteca de log do Python. |
|
enable_tf
Obrigatório
|
Parâmetro preterido para habilitar/desabilitar algoritmos tensorflow. O padrão é False. |
|
model_explainability
Obrigatório
|
Se deseja habilitar a explicação do melhor modelo AutoML no final de todas as iterações de treinamento do AutoML. O padrão é True. Para obter mais informações, consulte Interpretabilidade: explicações de modelo no machine learning automatizado. |
|
allowed_models
Obrigatório
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Uma lista de nomes de modelo para pesquisar um experimento. Se não for especificado, todos os modelos com suporte para a tarefa serão usados menos os modelos tensorFlow especificados |
|
whitelist_models
Obrigatório
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Parâmetro preterido, use allowed_models em vez disso. |
|
enable_onnx_compatible_models
Obrigatório
|
Seja para habilitar ou desabilitar a imposição dos modelos compatíveis com ONNX. O padrão é False. Para obter mais informações sobre o ONNX (Open Neural Network Exchange) e o Azure Machine Learning, consulte este artigo. |
|
forecasting_parameters
Obrigatório
|
Um objeto ForecastingParameters para conter todos os parâmetros específicos de previsão. |
|
time_column_name
Obrigatório
|
O nome da coluna de hora. Esse parâmetro é necessário ao prever para especificar a coluna datetime nos dados de entrada usados para criar a série temporal e inferir sua frequência. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
max_horizon
Obrigatório
|
O horizonte de previsão máxima desejado em unidades de frequência de série temporal. O valor padrão é 1. As unidades são baseadas no intervalo de tempo dos dados de treinamento, por exemplo, mensalmente, semanalmente que o preditor deve prever. Quando o tipo de tarefa está sendo previsto, esse parâmetro é necessário. Para obter mais informações sobre como definir parâmetros de previsão, consulte Treinar automaticamente um modelo de previsão de série temporal. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
grain_column_names
Obrigatório
|
Os nomes das colunas usadas para agrupar uma série de horários. Ele pode ser usado para criar várias séries. Se a granulação não estiver definida, o conjunto de dados será considerado uma série temporal. Esse parâmetro é usado com a previsão de tipo de tarefa. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
target_lags
Obrigatório
|
O número de períodos passados a serem atrasados da coluna de destino. O padrão é 1. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. Ao prever, esse parâmetro representa o número de linhas para atrasar os valores de destino com base na frequência dos dados. Isso é representado como uma lista ou inteiro único. O atraso deve ser usado quando a relação entre as variáveis independentes e a variável dependente não corresponder ou correlacionar por padrão. Por exemplo, ao tentar prever a demanda por um produto, a demanda em qualquer mês pode depender do preço de commodities específicas três meses antes. Neste exemplo, talvez você queira atrasar o destino (demanda) negativamente por 3 meses para que o modelo esteja treinando sobre a relação correta. Para obter mais informações, consulte Treinar automaticamente um modelo de previsão de série temporal. |
|
feature_lags
Obrigatório
|
Sinalizador para gerar atrasos para os recursos numéricos. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
target_rolling_window_size
Obrigatório
|
O número de períodos passados usados para criar uma média de janela sem interrupção da coluna de destino. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. Ao prever, esse parâmetro representa n períodos históricos a serem usados para gerar valores previstos, <= tamanho do conjunto de treinamento. Se omitido, n é o tamanho completo do conjunto de treinamento. Especifique esse parâmetro quando desejar considerar apenas certa quantidade de histórico no treinamento do modelo. |
|
country_or_region
Obrigatório
|
O país/região usado para gerar recursos de férias. Eles devem ser código de país/região de duas letras ISO 3166, por exemplo , "EUA" ou "GB". Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
use_stl
Obrigatório
|
Configure a Decomposição de STL da coluna de destino da série temporal. use_stl pode levar três valores: Nenhum (padrão) - sem decomposição stl, 'season' - apenas gerar componente de temporada e season_trend - gera componentes de estação e tendência. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
seasonality
Obrigatório
|
Defina a sazonalidade da série temporal. Se a sazonalidade for definida como 'auto', ela será inferida. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
short_series_handling_configuration
Obrigatório
|
O parâmetro que define como se o AutoML deve lidar com séries temporais curtas. Valores possíveis: 'auto' (padrão), 'pad', 'drop' e None.
Data numeric_value cadeia de caracteres de destino 01/01/2020 vinte e três verde 55 A saída supondo que o número mínimo de valores seja quatro: Data numeric_value cadeia de caracteres de destino 2019-12-29 0 NA 55.1 2019-12-30 0 NA 55.6 2019-12-31 0 NA 54.5 01/01/2020 vinte e três verde 55 Nota: Temos dois parâmetros short_series_handling_configuration e short_series_handling herdados. Quando ambos os parâmetros são definidos, estamos sincronizando-os conforme mostrado na tabela abaixo (short_series_handling_configuration e short_series_handling para brevidade são marcados como handling_configuration e manipulação, respectivamente). manipulação handling_configuration tratamento resultante handling_configuration resultante Verdade carro Verdade carro Verdade almofada Verdade carro Verdade descartar Verdade carro Verdade Nenhum Falso Nenhum Falso carro Falso Nenhum Falso almofada Falso Nenhum Falso descartar Falso Nenhum Falso Nenhum Falso Nenhum |
|
freq
Obrigatório
|
Frequência de previsão. Ao prever, esse parâmetro representa o período com o qual a previsão é desejada, por exemplo, diária, semanal, anual etc. A frequência de previsão é a frequência do conjunto de dados por padrão. Opcionalmente, você pode defini-lo como maior (mas não menor) do que a frequência do conjunto de dados. Agregaremos os dados e geraremos os resultados na frequência de previsão. Por exemplo, para dados diários, você pode definir a frequência como diária, semanal ou mensal, mas não por hora. A frequência precisa ser um alias de deslocamento pandas. Consulte a documentação do Pandas para obter mais informações: https://pandas.pydata.org/pandas-docs/stable/user_guide/timeseries.html#dateoffset-objects |
|
target_aggregation_function
Obrigatório
|
A função a ser usada para agregar a coluna de destino da série temporal para estar em conformidade com uma frequência especificada pelo usuário. Se o target_aggregation_function estiver definido, mas o parâmetro freq não estiver definido, o erro será gerado. As possíveis funções de agregação de destino são: "sum", "max", "min" e "mean". Freq target_aggregation_function Mecanismo de correção de regularidade de dados Nenhum (padrão) Nenhum (padrão) A agregação não é aplicada. Se a frequência válida não puder ser determinada, o erro será gerado. Algum valor Nenhum (padrão) A agregação não é aplicada. Se o número de pontos de dados em conformidade com a grade de frequência fornecida for menor, então 90 pontos%these serão removidos, caso contrário, o erro será gerado. Nenhum (padrão) Função de agregação O erro sobre parâmetros de frequência ausentes é gerado. Algum valor Função de agregação Agregar à frequência usando a função providedaggregation. |
|
enable_voting_ensemble
Obrigatório
|
Se deseja habilitar/desabilitar a iteração VotingEnsemble. O padrão é True. Para obter mais informações sobre conjuntos, consulte a configuração do Ensemble. |
|
enable_stack_ensemble
Obrigatório
|
Se deseja habilitar/desabilitar a iteração StackEnsemble. O padrão é None. Se enable_onnx_compatible_models sinalizador estiver sendo definido, a iteração StackEnsemble será desabilitada. Da mesma forma, para tarefas do Timeseries, a iteração StackEnsemble será desabilitada por padrão, para evitar riscos de sobreajuste devido ao pequeno conjunto de treinamento usado na montagem do metaaplicativo. Para obter mais informações sobre conjuntos, consulte a configuração do Ensemble. |
|
debug_log
Obrigatório
|
O arquivo de log para o qual gravar informações de depuração. Se não for especificado, 'automl.log' será usado. |
|
training_data
Obrigatório
|
Os dados de treinamento a serem usados no experimento.
Ele deve conter recursos de treinamento e uma coluna de rótulo (opcionalmente uma coluna de pesos de exemplo).
Se
|
|
validation_data
Obrigatório
|
Os dados de validação a serem usados no experimento.
Devem conter recursos de treinamento e uma coluna de rótulo (opcionalmente, uma coluna de pesos de amostra).
Se
|
|
test_data
Obrigatório
|
O recurso Teste de Modelo usando conjuntos de dados de teste ou divisões de dados de teste é um recurso no estado de visualização e pode ser alterado a qualquer momento. Os dados de teste a serem usados para uma execução de teste que será iniciada automaticamente após a conclusão do treinamento do modelo. A execução de teste obterá previsões usando o melhor modelo e calculará as métricas dadas essas previsões. Se esse parâmetro ou o |
|
test_size
Obrigatório
|
O recurso Teste de Modelo usando conjuntos de dados de teste ou divisões de dados de teste é um recurso no estado de visualização e pode ser alterado a qualquer momento. Que fração dos dados de treinamento devem conter para dados de teste para uma execução de teste que será iniciada automaticamente após a conclusão do treinamento do modelo. A execução de teste obterá previsões usando o melhor modelo e calculará as métricas dadas essas previsões. Isso deve estar entre 0.0 e 1.0 não inclusivo.
Se Para tarefas baseadas em regressão, a amostragem aleatória é usada. Para tarefas de classificação, a amostragem estratificada é usada. Atualmente, a previsão não dá suporte à especificação de um conjunto de dados de teste usando uma divisão de treinamento/teste. Se esse parâmetro ou o |
|
label_column_name
Obrigatório
|
O nome da coluna de rótulo. Se os dados de entrada forem de um pandas. DataFrame que não tem nomes de coluna, índices de coluna podem ser usados em vez disso, expressos como inteiros. Esse parâmetro é aplicável a |
|
weight_column_name
Obrigatório
|
O nome da coluna de peso de exemplo. O ML automatizado dá suporte a uma coluna ponderada como entrada, fazendo com que as linhas nos dados sejam ponderadas para cima ou para baixo. Se os dados de entrada forem de um pandas. DataFrame que não tem nomes de coluna, índices de coluna podem ser usados em vez disso, expressos como inteiros. Esse parâmetro é aplicável a parâmetros e a |
|
cv_split_column_names
Obrigatório
|
Lista de nomes das colunas que contêm divisão de validação cruzada personalizada. Cada uma das colunas de divisão cv representa uma divisão CV em que cada linha é marcada como 1 para treinamento ou 0 para validação. Esse parâmetro é aplicável ao Use ou Para obter mais informações, consulte Configurar divisões de dados e validação cruzada no machine learning automatizado. |
|
enable_local_managed
Obrigatório
|
Parâmetro desabilitado. As execuções gerenciadas locais não podem ser habilitadas no momento. |
|
enable_dnn
Obrigatório
|
Se os modelos baseados em DNN devem ser incluídos durante a seleção do modelo. O padrão na inicialização é None. No entanto, o padrão é True para tarefas DNN NLP e é False para todas as outras tarefas autoML. |
|
task
Obrigatório
|
O tipo de tarefa a ser executada. Os valores podem ser "classificação", "regressão" ou "previsão", dependendo do tipo de problema de ML automatizado a ser resolvido. |
|
path
Obrigatório
|
O caminho completo para a pasta de projeto do Azure Machine Learning. Se não for especificado, o padrão é usar o diretório atual ou ".". |
|
iterations
Obrigatório
|
O número total de diferentes combinações de algoritmos e parâmetros a serem testadas durante um experimento de ML automatizado. Se não for especificado, o padrão é 1000 iterações. |
|
primary_metric
Obrigatório
|
A métrica que o Machine Learning Automatizado otimizará para seleção de modelo. O Machine Learning automatizado coleta mais métricas do que pode otimizar. Você pode usar get_primary_metrics para obter uma lista de métricas válidas para a tarefa fornecida. Para obter mais informações sobre como as métricas são calculadas, consulte https://docs.microsoft.com/azure/machine-learning/how-to-configure-auto-train#primary-metric. Se não for especificado, a precisão será usada para tarefas de classificação, a média de raiz normalizada ao quadrado é usada para tarefas de previsão e regressão, a precisão é usada para classificação de imagem e classificação de vários rótulos de imagem e a precisão média média é usada para detecção de objetos de imagem. |
|
positive_label
Obrigatório
|
O rótulo de classe positivo que o Machine Learning Automatizado usará para calcular as métricas binárias. As métricas binárias são calculadas em duas condições para tarefas de classificação:
Para obter mais informações sobre classificação, métricas de check-out para cenários de classificação. |
|
compute_target
Obrigatório
|
O destino de computação do Azure Machine Learning no qual executar o experimento do Machine Learning Automatizado. Confira https://docs.microsoft.com/azure/machine-learning/how-to-auto-train-remote mais informações sobre destinos de computação. |
|
spark_context
Obrigatório
|
<xref:SparkContext>
O contexto do Spark. Aplicável somente quando usado dentro do ambiente do Azure Databricks/Spark. |
|
X
Obrigatório
|
Os recursos de treinamento a serem usados ao ajustar pipelines durante um experimento. Essa configuração está sendo preterida. Em vez disso, use training_data e label_column_name. |
|
y
Obrigatório
|
Os rótulos de treinamento a serem usados ao ajustar pipelines durante um experimento. Esse é o valor que seu modelo preverá. Essa configuração está sendo preterida. Em vez disso, use training_data e label_column_name. |
|
sample_weight
Obrigatório
|
O peso a ser dado a cada exemplo de treinamento ao executar pipelines de ajuste, cada linha deve corresponder a uma linha em dados X e y. Especifique |
|
X_valid
Obrigatório
|
Recursos de validação a serem usados ao ajustar pipelines durante um experimento. Se especificado, então |
|
y_valid
Obrigatório
|
Rótulos de validação a serem usados ao ajustar pipelines durante um experimento. Ambos |
|
sample_weight_valid
Obrigatório
|
O peso a ser dado a cada exemplo de validação ao executar pipelines de pontuação, cada linha deve corresponder a uma linha em dados X e y. Especifique |
|
cv_splits_indices
Obrigatório
|
Índices em que os dados de treinamento serão divididos para validação cruzada. Cada linha é uma dobra cruzada separada e, dentro de cada dobra cruzada, fornece duas matrizes numpy, a primeira com os índices para exemplos a serem usados para dados de treinamento e o segundo com os índices a serem usados para os dados de validação. ou seja, [[t1, v1], [t2, v2], ...] onde t1 é o índice de treinamento para a primeira dobra cruzada e v1 é o índice de validação para a primeira dobra cruzada. Essa opção tem suporte quando os dados são passados como conjunto de dados de recursos separados e coluna Label. Para especificar dados existentes como dados de validação, use |
|
validation_size
Obrigatório
|
Qual fração dos dados a serem armazenados para validação quando os dados de validação do usuário não forem especificados. Isso deve estar entre 0.0 e 1.0 não inclusivo. Especifique Para obter mais informações, consulte Configurar divisões de dados e validação cruzada no machine learning automatizado. |
|
n_cross_validations
Obrigatório
|
Quantas validações cruzadas serão executadas quando os dados de validação do usuário não forem especificados. Especifique Para obter mais informações, consulte Configurar divisões de dados e validação cruzada no machine learning automatizado. |
|
y_min
Obrigatório
|
Valor mínimo de y para um experimento de regressão. A combinação de e |
|
y_max
Obrigatório
|
Valor máximo de y para um experimento de regressão. A combinação de e |
|
num_classes
Obrigatório
|
O número de classes nos dados do rótulo para um experimento de classificação. Essa configuração está sendo preterida. Em vez disso, esse valor será computado a partir dos dados. |
|
featurization
Obrigatório
|
'auto' / 'off' / Indicador FeaturizationConfig para saber se a etapa de featurization deve ser feita automaticamente ou não, ou se a caracterização personalizada deve ser usada. Observação: se os dados de entrada forem esparsos, a definição de recursos não poderá ser ativada. O tipo de coluna é detectado automaticamente. Com base no pré-processamento/em destaque do tipo de coluna detectado, é feito da seguinte maneira:
Mais detalhes podem ser encontrados no artigo Configurar experimentos de ML automatizados no Python. Para personalizar a etapa de featurization, forneça um objeto FeaturizationConfig. Atualmente, a caracterização personalizada dá suporte ao bloqueio de um conjunto de transformadores, atualização da finalidade da coluna, edição de parâmetros de transformador e remoção de colunas. Para obter mais informações, consulte Personalizar a engenharia de recursos. Observação: os recursos de timeseries são tratados separadamente quando o tipo de tarefa é definido como previsão independente desse parâmetro. |
|
max_cores_per_iteration
Obrigatório
|
O número máximo de threads a serem usados para uma determinada iteração de treinamento. Valores aceitáveis:
|
|
max_concurrent_iterations
Obrigatório
|
Representa o número máximo de iterações que seriam executadas em paralelo. O valor padrão é 1.
|
|
iteration_timeout_minutes
Obrigatório
|
Tempo máximo em minutos para o qual cada iteração pode ser executada antes de terminar. Se não for especificado, um valor de 1 mês ou 43.200 minutos será usado. |
|
mem_in_mb
Obrigatório
|
Uso máximo de memória para o qual cada iteração pode ser executada antes de terminar. Se não for especificado, um valor de 1 PB ou 1073741824 MB será usado. |
|
enforce_time_on_windows
Obrigatório
|
Se deseja impor um limite de tempo no treinamento de modelo em cada iteração no Windows. O padrão é True. Se estiver em execução em um arquivo de script python (.py), consulte a documentação para permitir limites de recursos no Windows. |
|
experiment_timeout_hours
Obrigatório
|
Quantidade máxima de tempo em horas que todas as iterações combinadas podem levar antes que o experimento seja encerrado. Pode ser um valor decimal como 0,25 representando 15 minutos. Se não for especificado, o tempo limite padrão do experimento será de 6 dias. Para especificar um tempo limite menor ou igual a 1 hora, verifique se o tamanho do conjunto de dados não é maior que 10.000.000 (coluna de linhas vezes) ou um resultado de erro. |
|
experiment_exit_score
Obrigatório
|
Pontuação de destino para experimento. O experimento termina depois que essa pontuação é atingida.
Se não for especificado (sem critérios), o experimento será executado até que nenhum progresso adicional seja feito na métrica primária. Para obter mais informações sobre critérios de saída, consulte este >> |
|
enable_early_stopping
Obrigatório
|
Se será possível habilitar a terminação antecipada se a pontuação não estiver melhorando no curto prazo. O padrão é True. Lógica de parada antecipada:
|
|
blocked_models
Obrigatório
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Uma lista de algoritmos a serem ignorados para um experimento. Se |
|
blacklist_models
Obrigatório
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Parâmetro preterido, use blocked_models em vez disso. |
|
exclude_nan_labels
Obrigatório
|
Se deve excluir linhas com valores NaN no rótulo. O padrão é True. |
|
verbosity
Obrigatório
|
O nível de verbosidade para gravar no arquivo de log. O padrão é INFO ou 20. Os valores aceitáveis são definidos na biblioteca de log do Python. |
|
enable_tf
Obrigatório
|
Se deseja habilitar/desabilitar algoritmos tensorFlow. O padrão é False. |
|
model_explainability
Obrigatório
|
Se deseja habilitar a explicação do melhor modelo AutoML no final de todas as iterações de treinamento do AutoML. O padrão é True. Para obter mais informações, consulte Interpretabilidade: explicações de modelo no machine learning automatizado. |
|
allowed_models
Obrigatório
|
list(str) ou
list(Classification) <xref:for classification task> ou
list(Regression) <xref:for regression task> ou
list(Forecasting) <xref:for forecasting task>
Uma lista de nomes de modelo para pesquisar um experimento. Se não for especificado, todos os modelos com suporte para a tarefa serão usados menos os modelos tensorFlow especificados |
|
allowed_models
Obrigatório
|
Uma lista de nomes de modelo para pesquisar um experimento. Se não for especificado, todos os modelos com suporte para a tarefa serão usados menos os modelos tensorFlow especificados |
|
whitelist_models
Obrigatório
|
Parâmetro preterido, use allowed_models em vez disso. |
|
enable_onnx_compatible_models
Obrigatório
|
Seja para habilitar ou desabilitar a imposição dos modelos compatíveis com ONNX. O padrão é False. Para obter mais informações sobre o ONNX (Open Neural Network Exchange) e o Azure Machine Learning, consulte este artigo. |
|
forecasting_parameters
Obrigatório
|
Um objeto para conter todos os parâmetros específicos de previsão. |
|
time_column_name
Obrigatório
|
O nome da coluna de hora. Esse parâmetro é necessário ao prever para especificar a coluna datetime nos dados de entrada usados para criar a série temporal e inferir sua frequência. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
max_horizon
Obrigatório
|
O horizonte de previsão máxima desejado em unidades de frequência de série temporal. O valor padrão é 1. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. As unidades são baseadas no intervalo de tempo dos dados de treinamento, por exemplo, mensalmente, semanalmente que o preditor deve prever. Quando o tipo de tarefa está sendo previsto, esse parâmetro é necessário. Para obter mais informações sobre como definir parâmetros de previsão, consulte Treinar automaticamente um modelo de previsão de série temporal. |
|
grain_column_names
Obrigatório
|
Os nomes das colunas usadas para agrupar uma série de horários. Ele pode ser usado para criar várias séries. Se a granulação não estiver definida, o conjunto de dados será considerado uma série temporal. Esse parâmetro é usado com a previsão de tipo de tarefa. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
target_lags
Obrigatório
|
O número de períodos passados a serem atrasados da coluna de destino. O padrão é 1. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. Ao prever, esse parâmetro representa o número de linhas para atrasar os valores de destino com base na frequência dos dados. Isso é representado como uma lista ou inteiro único. O atraso deve ser usado quando a relação entre as variáveis independentes e a variável dependente não corresponder ou correlacionar por padrão. Por exemplo, ao tentar prever a demanda por um produto, a demanda em qualquer mês pode depender do preço de commodities específicas três meses antes. Neste exemplo, talvez você queira atrasar o destino (demanda) negativamente por 3 meses para que o modelo esteja treinando sobre a relação correta. Para obter mais informações, consulte Treinar automaticamente um modelo de previsão de série temporal. |
|
feature_lags
Obrigatório
|
Sinalizador para gerar atrasos para os recursos numéricos. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
target_rolling_window_size
Obrigatório
|
O número de períodos passados usados para criar uma média de janela sem interrupção da coluna de destino. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. Ao prever, esse parâmetro representa n períodos históricos a serem usados para gerar valores previstos, <= tamanho do conjunto de treinamento. Se omitido, n é o tamanho completo do conjunto de treinamento. Especifique esse parâmetro quando desejar considerar apenas certa quantidade de histórico no treinamento do modelo. |
|
country_or_region
Obrigatório
|
O país/região usado para gerar recursos de férias. Eles devem ser códigos de país/região de duas letras ISO 3166, por exemplo , "EUA" ou "GB". Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
use_stl
Obrigatório
|
Configure a Decomposição de STL da coluna de destino da série temporal. use_stl pode levar três valores: Nenhum (padrão) - sem decomposição stl, 'season' - apenas gerar componente de temporada e season_trend - gera componentes de estação e tendência. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
seasonality
Obrigatório
|
Defina a sazonalidade da série temporal. Se a sazonalidade estiver definida como -1, ela será inferida. Se use_stl não estiver definido, esse parâmetro não será usado. Essa configuração está sendo preterida. Em vez disso, use forecasting_parameters. |
|
short_series_handling_configuration
Obrigatório
|
O parâmetro que define como se o AutoML deve lidar com séries temporais curtas. Valores possíveis: 'auto' (padrão), 'pad', 'drop' e None.
Data numeric_value cadeia de caracteres de destino 01/01/2020 vinte e três verde 55 A saída supondo que o número mínimo de valores seja quatro: +————+—————+———-+——–+ | Data | numeric_value | cadeia de caracteres | destino | +============+===============+==========+========+ | 2019-12-29 | 0 | NA | 55.1 | +————+—————+———-+——–+ | 2019-12-30 | 0 | NA | 55,6 | +————+—————+———-+——–+ | 2019-12-31 | 0 | NA | 54,5 | +————+—————+———-+——–+ | 2020-01-01 | 23 | verde | 55 | +————+—————+———-+——–+ Nota: Temos dois parâmetros short_series_handling_configuration e short_series_handling herdados. Quando ambos os parâmetros são definidos, estamos sincronizando-os conforme mostrado na tabela abaixo (short_series_handling_configuration e short_series_handling para brevidade são marcados como handling_configuration e manipulação, respectivamente). manipulação handling_configuration tratamento resultante handling_configuration resultante Verdade carro Verdade carro Verdade almofada Verdade carro Verdade descartar Verdade carro Verdade Nenhum Falso Nenhum Falso carro Falso Nenhum Falso almofada Falso Nenhum Falso descartar Falso Nenhum Falso Nenhum Falso Nenhum |
|
freq
Obrigatório
|
Frequência de previsão. Ao prever, esse parâmetro representa o período com o qual a previsão é desejada, por exemplo, diária, semanal, anual etc. A frequência de previsão é a frequência do conjunto de dados por padrão. Opcionalmente, você pode defini-lo como maior (mas não menor) do que a frequência do conjunto de dados. Agregaremos os dados e geraremos os resultados na frequência de previsão. Por exemplo, para dados diários, você pode definir a frequência como diária, semanal ou mensal, mas não por hora. A frequência precisa ser um alias de deslocamento pandas. Consulte a documentação do Pandas para obter mais informações: https://pandas.pydata.org/pandas-docs/stable/user_guide/timeseries.html#dateoffset-objects |
|
target_aggregation_function
Obrigatório
|
A função a ser usada para agregar a coluna de destino da série temporal para estar em conformidade com uma frequência especificada pelo usuário. Se o target_aggregation_function estiver definido, mas o parâmetro freq não estiver definido, o erro será gerado. As possíveis funções de agregação de destino são: "sum", "max", "min" e "mean". Freq target_aggregation_function Mecanismo de correção de regularidade de dados Nenhum (padrão) Nenhum (padrão) A agregação não é aplicada. Se a frequência válida não puder ser determinada, o erro será gerado. Algum valor Nenhum (padrão) A agregação não é aplicada. Se o número de pontos de dados em conformidade com a grade de frequência fornecida for menor, então 90 pontos%these serão removidos, caso contrário, o erro será gerado. Nenhum (padrão) Função de agregação O erro sobre parâmetros de frequência ausentes é gerado. Algum valor Função de agregação Agregar à frequência usando a função providedaggregation. |
|
enable_voting_ensemble
Obrigatório
|
Se deseja habilitar/desabilitar a iteração VotingEnsemble. O padrão é True. Para obter mais informações sobre conjuntos, consulte a configuração do Ensemble. |
|
enable_stack_ensemble
Obrigatório
|
Se deseja habilitar/desabilitar a iteração StackEnsemble. O padrão é None. Se enable_onnx_compatible_models sinalizador estiver sendo definido, a iteração StackEnsemble será desabilitada. Da mesma forma, para tarefas do Timeseries, a iteração StackEnsemble será desabilitada por padrão, para evitar riscos de sobreajuste devido ao pequeno conjunto de treinamento usado na montagem do metaaplicativo. Para obter mais informações sobre conjuntos, consulte a configuração do Ensemble. |
|
debug_log
Obrigatório
|
O arquivo de log para o qual gravar informações de depuração. Se não for especificado, 'automl.log' será usado. |
|
training_data
Obrigatório
|
Os dados de treinamento a serem usados no experimento.
Ele deve conter recursos de treinamento e uma coluna de rótulo (opcionalmente uma coluna de pesos de exemplo).
Se
|
|
validation_data
Obrigatório
|
Os dados de validação a serem usados no experimento.
Devem conter recursos de treinamento e uma coluna de rótulo (opcionalmente, uma coluna de pesos de amostra).
Se
|
|
test_data
Obrigatório
|
O recurso Teste de Modelo usando conjuntos de dados de teste ou divisões de dados de teste é um recurso no estado de visualização e pode ser alterado a qualquer momento. Os dados de teste a serem usados para uma execução de teste que será iniciada automaticamente após a conclusão do treinamento do modelo. A execução de teste obterá previsões usando o melhor modelo e calculará as métricas dadas essas previsões. Se esse parâmetro ou o |
|
test_size
Obrigatório
|
O recurso Teste de Modelo usando conjuntos de dados de teste ou divisões de dados de teste é um recurso no estado de visualização e pode ser alterado a qualquer momento. Que fração dos dados de treinamento devem conter para dados de teste para uma execução de teste que será iniciada automaticamente após a conclusão do treinamento do modelo. A execução de teste obterá previsões usando o melhor modelo e calculará as métricas dadas essas previsões. Isso deve estar entre 0.0 e 1.0 não inclusivo.
Se Para tarefas baseadas em regressão, a amostragem aleatória é usada. Para tarefas de classificação, a amostragem estratificada é usada. Atualmente, a previsão não dá suporte à especificação de um conjunto de dados de teste usando uma divisão de treinamento/teste. Se esse parâmetro ou o |
|
label_column_name
Obrigatório
|
O nome da coluna de rótulo. Se os dados de entrada forem de um pandas. DataFrame que não tem nomes de coluna, índices de coluna podem ser usados em vez disso, expressos como inteiros. Esse parâmetro é aplicável a |
|
weight_column_name
Obrigatório
|
O nome da coluna de peso de exemplo. O ML automatizado dá suporte a uma coluna ponderada como entrada, fazendo com que as linhas nos dados sejam ponderadas para cima ou para baixo. Se os dados de entrada forem de um pandas. DataFrame que não tem nomes de coluna, índices de coluna podem ser usados em vez disso, expressos como inteiros. Esse parâmetro é aplicável a parâmetros e a |
|
cv_split_column_names
Obrigatório
|
Lista de nomes das colunas que contêm divisão de validação cruzada personalizada. Cada uma das colunas de divisão cv representa uma divisão CV em que cada linha é marcada como 1 para treinamento ou 0 para validação. Esse parâmetro é aplicável ao Use ou Para obter mais informações, consulte Configurar divisões de dados e validação cruzada no machine learning automatizado. |
|
enable_local_managed
Obrigatório
|
Parâmetro desabilitado. As execuções gerenciadas locais não podem ser habilitadas no momento. |
|
enable_dnn
Obrigatório
|
Se os modelos baseados em DNN devem ser incluídos durante a seleção do modelo. O padrão na inicialização é None. No entanto, o padrão é True para tarefas DNN NLP e é False para todas as outras tarefas autoML. |
Comentários
O código a seguir mostra um exemplo básico de criação de um objeto AutoMLConfig e envio de um experimento para regressão:
automl_settings = {
"n_cross_validations": 3,
"primary_metric": 'r2_score',
"enable_early_stopping": True,
"experiment_timeout_hours": 1.0,
"max_concurrent_iterations": 4,
"max_cores_per_iteration": -1,
"verbosity": logging.INFO,
}
automl_config = AutoMLConfig(task = 'regression',
compute_target = compute_target,
training_data = train_data,
label_column_name = label,
**automl_settings
)
ws = Workspace.from_config()
experiment = Experiment(ws, "your-experiment-name")
run = experiment.submit(automl_config, show_output=True)
Um exemplo completo está disponível na Regressão
Exemplos de uso do AutoMLConfig para previsão estão nestes notebooks:
Exemplos de uso do AutoMLConfig para todos os tipos de tarefa podem ser encontrados nesses notebooks ML automatizados.
Para obter informações sobre ml automatizado, consulte os artigos:
Configurar experimentos de ML automatizados no Python. Neste artigo, há informações sobre os diferentes algoritmos e as métricas primárias usadas para cada tipo de tarefa.
Treinar automaticamente um modelo de previsão de série temporal. Neste artigo, há informações sobre quais parâmetros de construtor e
**kwargssão usados na previsão.
Para obter mais informações sobre diferentes opções para configurar divisões de dados de treinamento/validação e validação cruzada para seu aprendizado de máquina automatizado, AutoML, experimentos, consulte Configurar divisões de dados e validação cruzada no machine learning automatizado.
Métodos
| as_serializable_dict |
Converta o objeto em dicionário. |
| get_supported_dataset_languages |
Obtenha idiomas com suporte e seus códigos de idioma correspondentes no ISO 639-3. |
as_serializable_dict
Converta o objeto em dicionário.
as_serializable_dict() -> Dict[str, Any]
get_supported_dataset_languages
Obtenha idiomas com suporte e seus códigos de idioma correspondentes no ISO 639-3.
get_supported_dataset_languages(use_gpu: bool) -> Dict[Any, Any]
Parâmetros
| Nome | Description |
|---|---|
|
cls
Obrigatório
|
Objeto de classe de AutoMLConfig. |
|
use_gpu
Obrigatório
|
booliano indicando se a computação de gpu está sendo usada ou não. |
Retornos
| Tipo | Description |
|---|---|
|
dicionário de formato {<código> de linguagem: <nome> da linguagem}. Código de idioma adere ao padrão ISO 639-3, consulte https://en.wikipedia.org/wiki/List_of_ISO_639-3_codes |