Azure Databricks
O Azure Databricks oferece uma plataforma unificada para gerenciamento, governança e análise de dados escalonáveis, combinando fluxos de trabalho simplificados com a capacidade de lidar com diversos tipos de dados com eficiência
Esse conector está disponível nos seguintes produtos e regiões:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Todas as regiões do Power Automate , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Power Apps | Premium | Todas as regiões do Power Apps , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Power Automate | Premium | Todas as regiões do Power Automate , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Contato | |
|---|---|
| Nome | Suporte do Databricks |
| URL | https://help.databricks.com |
| eng-partner-eco-help@databricks.com |
| Metadados do conector | |
|---|---|
| Publicador | Databricks Inc. |
| Site | https://www.databricks.com/ |
| Política de privacidade | https://www.databricks.com/legal/privacynotice |
| Categorias | Dados |
Conectar-se ao Azure Databricks por meio do Microsoft Power Platform
Esta página explica como se conectar ao Azure Databricks do Microsoft Power Platform adicionando o Azure Databricks como uma conexão de dados. Quando conectado, você pode usar seus dados do Azure Databricks das seguintes plataformas:
- Power Apps: crie aplicativos que podem ler e gravar no Azure Databricks, preservando os controles de governança do Azure Databricks.
- Power Automate: crie fluxos e adicione ações que permitem executar o SQL personalizado ou um trabalho existente e obter de volta os resultados.
- Copilot Studio: crie agentes personalizados usando seus dados do Azure Databricks como uma fonte de conhecimento.
Antes de começar
Antes de se conectar ao Azure Databricks do Power Platform, você deve atender aos seguintes requisitos:
- Você tem uma conta do Microsoft Entra ID (anteriormente Azure Active Directory).
- Você tem uma licença premium do Power Apps.
- Você tem uma conta do Azure Databricks.
- Você tem acesso a um SQL Warehouse no Azure Databricks.
Opcional: conectar-se com redes virtuais do Azure
Se o workspace do Azure Databricks usar redes virtuais, haverá duas maneiras de se conectar:
Integre o Power Platform com recursos dentro de sua rede virtual sem expô-los pela Internet pública. Para se conectar ao endpoint privado do workspace do Azure Databricks, siga estas etapas após configurar a conectividade privada com o Azure Databricks:
Se a rede virtual do Power Platform (seja Primária ou Secundária) for diferente da rede virtual do Azure Databricks, use o emparelhamento de rede virtual para conectar a rede virtual ao Azure Databricks.
Para obter mais informações sobre redes virtuais, consulte a visão geral do suporte à Rede Virtual.
Habilite o acesso com a implantação híbrida, em que um link privado de front-end com um ponto de extremidade público é protegido por uma Lista de acesso de IP do Workspace. Para habilitar o acesso, faça o seguinte:
- Habilitar o acesso público no nível do workspace. Para obter mais detalhes, consulte Configurar listas de acesso IP para workspaces.
- Adicione o intervalo de IP do AzureConnectors ou um intervalo de IP específico do Power Platform com base na região do seu ambiente à sua lista de acesso ip do workspace.
Opcional: criar uma entidade de serviço do Microsoft Entra
Important
Se o Azure Databricks e o Power Platform estiverem em locatários diferentes, você deverá usar as Entidades de Serviço para autenticação.
Antes de se conectar, conclua as seguintes etapas para criar, configurar e atribuir um Principal de Serviço do Microsoft Entra à sua conta ou espaço de trabalho do Azure Databricks.
- Registre uma nova entidade de serviço no Microsoft Entra ID.
- Adicione entidades de serviço à sua conta.
- Atribua uma entidade de serviço a um workspace.
Etapa 1: Adicionar uma conexão do Azure Databricks ao Power Platform
Nota: Se você estiver usando o Copilot Studio, recomendamos criar a conexão do Databricks no Power Apps ou no Power Automate. Em seguida, ele pode ser usado no Copilot Studio.
Para adicionar uma conexão do Azure Databricks, faça o seguinte:
No Power Apps ou no Power Automate, na barra lateral, clique em Conexões.
Clique em + Nova conexão no canto superior esquerdo.
Pesquise "Azure Databricks" usando a barra de pesquisa no canto superior direito.
Selecione o bloco do Azure Databricks .
Selecione o tipo de Autenticação no menu suspenso.
Selecione seu método de autenticação e insira suas informações de autenticação.
Se a implantação do Power Platform e a conta do Azure Databricks estiverem no mesmo tenant do Microsoft Entra, você poderá usar a conexão OAuth. Insira as seguintes informações:
- Para Nome do Host do Servidor, insira o nome do host do SQL Warehouse do Azure Databricks.
- Para o caminho HTTP, insira o caminho HTTP do SQL Warehouse.
- Clique em Criar.
- Entre com sua ID do Microsoft Entra.
Conexão da entidade de serviço pode ser usada em qualquer cenário. Antes de se conectar, crie uma entidade de serviço do Microsoft Entra. Insira as seguintes informações:
- Para ID do Cliente, insira a ID do principal do serviço.
- Para o Segredo do Cliente, insira o segredo da entidade de serviço.
- Para Locatário, insira o locatário da entidade de serviço.
- Para Nome do Host, insira o nome do host do SQL Warehouse do Azure Databricks.
- Para o caminho HTTP, insira o caminho HTTP do SQL Warehouse.
- (Opcional) Você pode renomear ou compartilhar a conexão da entidade de serviço com os membros da equipe após a criação da conexão.
Para localizar os detalhes da conexão do SQL Warehouse do Azure Databricks, consulte Obter detalhes de conexão para um recurso de computação do Azure Databricks.
Clique em Criar.
Etapa 2: Usar a conexão do Azure Databricks
Depois de criar uma conexão do Azure Databricks no Power Apps ou no Power Automate, você pode usar seus dados do Azure Databricks para criar aplicativos de tela do Power, fluxos do Power Automate e agentes do Copilot Studio.
Usar seus dados do Azure Databricks para criar aplicativos de tela do Power
Important
Você só poderá usar aplicativos de tela se estiver se conectando diretamente ao Azure Databricks no aplicativo. Você não pode usar tabelas virtuais.
Para adicionar seus dados do Azure Databricks ao seu aplicativo, faça o seguinte:
- Na barra de navegação mais à esquerda, clique em Criar.
- Clique em Iniciar com uma tela em branco e selecione o tamanho de tela desejado para criar um novo aplicativo de tela.
- Em seu aplicativo, clique em Adicionarconectores> de dados>do Azure Databricks. Selecione a conexão do Azure Databricks que você criou.
- Selecione um catálogo na barra lateral Escolher um conjunto de dados .
- Na barra lateral Escolher um dataset, selecione todas as tabelas às quais você deseja conectar seu aplicativo Canvas.
- Clique em Conectar.
Operações de dados no Power Apps:
O conector dá suporte a operações de criação, atualização e exclusão, mas apenas para tabelas que têm uma chave primária definida. Ao executar operações de criação, você deve sempre especificar a chave primária.
Nota: O Azure Databricks dá suporte a colunas de identidade geradas. Nesse caso, os valores de chave primária são gerados automaticamente no servidor durante a criação da linha e não podem ser especificados manualmente.
Usar seus dados do Azure Databricks para criar fluxos do Power Automate
A API de Execução de Instrução e a API de Trabalhos são expostas no Power Automate, permitindo que você escreva instruções SQL e execute trabalhos existentes. Para criar um fluxo do Power Automate usando o Azure Databricks como uma ação, faça o seguinte:
- Na barra de navegação mais à esquerda, clique em Criar.
- Crie um fluxo e adicione qualquer tipo de gatilho.
- No novo fluxo, clique + e pesquise "Databricks" para ver as ações disponíveis.
Para gravar o SQL, selecione uma das seguintes ações:
Execute uma instrução SQL: escreva e execute uma instrução SQL. Insira o seguinte:
- Para Corpo/warehouse_id, insira o ID do armazém sobre o qual executar a instrução SQL.
- Para Corpo/statement_id, insira o ID da instrução SQL a ser executada.
- Para obter mais informações sobre os parâmetros avançados, consulte aqui.
Verificar o status e obter resultados: verifique o status de uma instrução SQL e colete os resultados. Insira o seguinte:
- Para ID da Declaração, insira o ID retornado quando a declaração SQL foi executada.
- Para obter mais informações sobre o parâmetro, consulte aqui.
Cancelar a execução de uma instrução: encerrar a execução de uma instrução SQL. Insira o seguinte:
- Para o ID da instrução, insira o ID da instrução SQL a ser encerrada.
- Para obter mais informações sobre o parâmetro, consulte aqui.
Obter resultado por índice de partes: obter resultados por índice de partes, que é adequado para grandes conjuntos de resultados. Insira o seguinte:
- Para ID da Instrução SQL, insira o ID da instrução SQL cujos resultados você deseja obter.
- Para o índice Chunk, insira o índice de partes de destino.
- Para obter mais informações sobre os parâmetros, consulte aqui.
Para interagir com um Trabalho do Databricks existente, selecione uma das seguintes ações:
- Trabalhos de Lista: recupera uma lista de trabalhos. Para obter mais informações , confira aqui.
- Disparar uma nova execução de trabalho: executa um trabalho e retorna o run_id da execução disparada. Para obter mais informações , confira aqui.
- Obter uma única execução de trabalho: retorna metadados sobre uma execução, incluindo o status da execução (por exemplo, RUNNING, SUCCESS, FAILED), hora de início e término, durações de execução, informações do cluster etc. Para obter mais informações , confira aqui.
- Cancelar uma execução de trabalho: cancela uma execução de trabalho ou uma execução de tarefa. Para obter mais informações, consulte aqui.
- Obtenha a saída para uma única execução de trabalho: recupera a saída e os metadados de uma única execução de tarefa. Para obter mais informações, consulte aqui.
Usar o Azure Databricks como uma fonte de conhecimento no Copilot Studio
Para adicionar seus dados do Azure Databricks como uma fonte de conhecimento a um agente do Copilot Studio, faça o seguinte:
- Na barra lateral, clique em Agente.
- Selecione um agente existente ou crie um novo agente clicando em + Novo agente.
- Descreva o agente inserindo uma mensagem e clique em Criar.
- Ou clique em Ignorar para especificar manualmente as informações do agente.
- Na guia Conhecimento , clique em + Conhecimento.
- Clique em Avançado.
- Selecione o Azure Databricks como a fonte de conhecimento.
- Insira o nome do catálogo em que os dados estão.
- Clique em Conectar.
- Selecione as tabelas que você deseja que seu agente use como fonte de conhecimento e clique em Adicionar.
Criar tabelas virtuais do Dataverse com seus dados do Azure Databricks
Você também pode criar tabelas virtuais do Dataverse com o conector do Azure Databricks. As tabelas virtuais, também conhecidas como entidades virtuais, integram dados de sistemas externos ao Microsoft Dataverse. Uma tabela virtual define uma tabela no Dataverse sem armazenar a tabela física no banco de dados dataverse. Para saber mais sobre tabelas virtuais, consulte Introdução às tabelas virtuais (entidades).
Observação
Embora as tabelas virtuais não consumam a capacidade de armazenamento do Dataverse, o Databricks recomenda que você use conexões diretas para melhorar o desempenho.
Você deve ter a função Personalizador do Sistema ou Administrador do Sistema. Para obter mais informações, consulte as funções de segurança do Power Platform.
Siga estas etapas para criar uma tabela virtual do Dataverse:
No Power Apps, na barra lateral, clique em Tabelas.
Clique em + Nova Tabela na barra de menus e selecione Criar uma tabela virtual.
Selecione uma conexão existente do Azure Databricks ou crie uma nova conexão com o Azure Databricks. Para adicionar uma nova conexão, consulte a Etapa 1: Adicionar uma conexão do Azure Databricks ao Power Platform.
O Databricks recomenda usar uma conexão da entidade de serviço para criar uma tabela virtual.
Clique em Próximo.
Selecione as tabelas a serem representadas como uma tabela virtual do Dataverse.
- As tabelas virtuais do Dataverse exigem uma chave primária. Portanto, as exibições não podem ser tabelas virtuais, mas exibições materializadas podem.
Clique em Próximo.
Configure a tabela virtual atualizando os detalhes da tabela, se necessário.
Clique em Próximo.
Confirme os detalhes da fonte de dados e clique em Concluir.
Use a tabela virtual do Dataverse no Power Apps, no Power Automate e no Copilot Studio.
Para obter uma lista de limitações conhecidas das tabelas virtuais do Dataverse, consulte limitações conhecidas e solução de problemas.
Realizar atualizações em lote
Se você precisar executar operações de criação, atualização ou exclusão em massa em resposta a entradas do Power Apps, o Databricks recomenda implementar um fluxo do Power Automate. Para realizar esta tarefa, faça o seguinte:
Crie um aplicativo de tela usando sua conexão com o Azure Databricks no Power Apps.
Crie um fluxo do Power Automate usando a conexão do Azure Databricks e defina o Power Apps como gatilho.
No gatilho do Power Automate, adicione os campos de entrada que você deseja passar do Power Apps para o Power Automate.
Crie um objeto de coleção no Power Apps para coletar todas as suas alterações.
Adicione o fluxo do Power Automate ao aplicativo Canvas.
Chame o fluxo do Power Automate pelo seu aplicativo de tela e itere pela coleção usando um comando
ForAll.ForAll(collectionName, FlowName.Run(input field 1, input field 2, input field 3, …)
Gravações simultâneas
A simultaneidade em nível de linha reduz conflitos entre operações de gravação simultâneas detectando alterações no nível da linha e resolvendo automaticamente conflitos que ocorrem quando grava simultaneamente a atualização ou exclui linhas diferentes no mesmo arquivo de dados.
A simultaneidade de nível de linha está disponível no Databricks Runtime 14.2 ou superior. A simultaneidade de nível de linha tem suporte por padrão para os seguintes tipos de tabelas:
- Tabelas com vetores de exclusão habilitados e sem particionamento
- Tabelas com agrupamento líquido, a menos que os vetores de exclusão estejam desabilitados
Para habilitar vetores de exclusão, execute o seguinte comando SQL:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.enableDeletionVectors' = true);
Para obter mais informações sobre conflitos de gravação simultâneos no Azure Databricks, consulte níveis de isolamento e conflitos de gravação no Azure Databricks.
Adicionar o Azure Databricks a uma política de dados
Ao adicionar o Azure Databricks a uma política de dados corporativos, o Azure Databricks não pode compartilhar dados com conectores em outros grupos. Isso protege seus dados e impede que eles sejam compartilhados com aqueles que não devem ter acesso a eles. Para obter mais informações, consulte Gerenciar políticas de dados.
Para adicionar o conector do Azure Databricks a uma política de dados do Power Platform:
- Em qualquer aplicativo do Power Platform, clique na engrenagem de configurações no lado superior direito e selecione Centro de Administração.
- Na barra lateral, clique em Políticas>Políticas de Dados.
- Se você estiver usando o novo centro de administração, clique em Segurança>Privacidade de Dados>Política de Dados.
- Clique em + Nova Política ou selecione uma política existente.
- Se estiver criando uma nova política, insira um nome.
- Selecione um ambiente para adicionar à sua política e clique em + Adicionar à política acima.
- Clique em Próximo.
- Pesquise e selecione o conector do Azure Databricks .
- Clique Mover para Negócios e clique Avançar.
- Examine sua política e clique em Criar política.
Limitações
- O conector do Power Platform não dá suporte a nuvens governamentais.
Limitações do Power App
As fórmulas do PowerFx a seguir calculam valores usando apenas os dados que foram recuperados localmente:
| Categoria | Formula |
|---|---|
| Função Tabela | - GroupBy -Diferente |
| Aggregation | - CountRows - StdevP - StdevS |
Criando uma conexão
O conector dá suporte aos seguintes tipos de autenticação:
| Conexão OAuth | Conexão OAuth | Todas as regiões | Não compartilhável |
| Conexão da Entidade de Serviço | Conexão da Entidade de Serviço | Todas as regiões | Compartilhável |
| Padrão [PRETERIDO] | Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores. | Todas as regiões | Não compartilhável |
Conexão OAuth
ID de autenticação: oauth2-auth
Aplicável: todas as regiões
Conexão OAuth
Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Nome do host do servidor (exemplo: adb-3980263885549757139.2.azuredatabricks.net) | cadeia | Nome do servidor do workspace do Databricks | Verdade |
| Caminho HTTP (exemplo: /sql/1.0/warehouses/a9c4e781bd29f315) | cadeia | Caminho HTTP do Databricks SQL Warehouse | Verdade |
Conexão da Entidade de Serviço
ID de autenticação: oAuthClientCredentials
Aplicável: todas as regiões
Conexão da Entidade de Serviço
Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| ID do cliente | cadeia | Verdade | |
| Segredo de Cliente | secureString | Verdade | |
| Inquilino | cadeia | Verdade | |
| Nome do host do servidor (exemplo: adb-3980263885549757139.2.azuredatabricks.net) | cadeia | Nome do servidor do workspace do Databricks | Verdade |
| Caminho HTTP (exemplo: /sql/1.0/warehouses/a9c4e781bd29f315) | cadeia | Caminho HTTP do Databricks SQL Warehouse | Verdade |
Padrão [PRETERIDO]
Aplicável: todas as regiões
Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores.
Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.
Limitações
| Nome | Chamadas | Período de renovação |
|---|---|---|
| Chamadas à API por conexão | 100 | 60 segundos |
Ações
| Azure Databricks Genie |
Consultar espaços do Genie para obter insights de seus dados. |
| Cancelar a execução da instrução |
Solicita que uma instrução em execução seja cancelada. Os chamadores devem sondar o status para ver o estado do terminal. |
| Cancelar uma execução |
Cancela uma execução de trabalho ou uma execução de tarefa. A execução é cancelada de forma assíncrona, portanto, ela ainda pode estar em execução quando essa solicitação for concluída. |
| Disparar uma nova execução de trabalho |
Execute um trabalho e retorne o run_id da execução disparada. |
| Executar uma instrução SQL |
Execute uma instrução SQL e, opcionalmente, aguarde seus resultados por um tempo especificado. |
| Listar trabalhos |
Recupera uma lista de trabalhos. |
| Obter a saída para uma única execução |
Recupere a saída e os metadados de uma única execução de tarefa. Quando uma tarefa de notebook retorna um valor por meio da chamada dbutils.notebook.exit(), você pode usar esse ponto de extremidade para recuperar esse valor. O Azure Databricks restringe essa API a retornar os primeiros 5 MB da saída. Para retornar um resultado maior, você pode armazenar resultados de trabalho em um serviço de armazenamento em nuvem. Esse ponto de extremidade valida que o parâmetro run_id é válido e retorna um código de status HTTP 400 se o parâmetro run_id for inválido. As execuções são removidas automaticamente após 60 dias. Se você quiser referenciá-los além de 60 dias, salve os resultados de execução antigos antes que eles expirem. |
| Obter resultado por índice de partes |
Depois que a execução da instrução for BEM-sucedida, essa solicitação poderá ser usada para buscar qualquer parte por índice. |
| Obter uma única execução de trabalho |
Recupera os metadados de uma execução. Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para uma única execução retornará todas as propriedades para essa execução e os primeiros 100 elementos de propriedades de matriz (tarefas, job_clusters, job_parameters e repair_history). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se as propriedades de matriz tiverem mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. Matrizes sem resultados adicionais estarão vazias em páginas posteriores. |
| Verificar o status e obter resultados |
Obter o status, o manifesto e os resultados da instrução |
Azure Databricks Genie
Consultar espaços do Genie para obter insights de seus dados.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
ID de espaço do Genie
|
genie_space_id | True | string |
ID de espaço do Genie |
Cancelar a execução da instrução
Solicita que uma instrução em execução seja cancelada. Os chamadores devem sondar o status para ver o estado do terminal.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
ID da instrução
|
statement_id | True | string |
ID da instrução |
Cancelar uma execução
Cancela uma execução de trabalho ou uma execução de tarefa. A execução é cancelada de forma assíncrona, portanto, ela ainda pode estar em execução quando essa solicitação for concluída.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
run_id
|
run_id | True | integer |
Este campo é necessário. |
Disparar uma nova execução de trabalho
Execute um trabalho e retorne o run_id da execução disparada.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
idempotency_token
|
idempotency_token | string |
Um token opcional para garantir a idempotency de solicitações de execução de trabalho. Se já existir uma execução com o token fornecido, a solicitação não criará uma nova execução, mas retornará a ID da execução existente. Se uma execução com o token fornecido for excluída, um erro será retornado. Se você especificar o token de idempotency, após a falha, poderá tentar novamente até que a solicitação seja bem-sucedida. O Azure Databricks garante que exatamente uma execução seja iniciada com esse token de idempotency. Esse token deve ter no máximo 64 caracteres. Para obter mais informações, consulte Como garantir a idempotência para trabalhos. |
|
|
job_id
|
job_id | True | integer |
A ID do trabalho a ser executado |
|
job_parameters
|
job_parameters | object |
Parâmetros de nível de trabalho usados na execução. por exemplo, "param": "overriding_val" |
|
|
somente
|
only | array of string |
Uma lista de chaves de tarefa a serem executadas dentro do trabalho. Se esse campo não for fornecido, todas as tarefas no trabalho serão executadas. |
|
|
performance_target
|
performance_target | string | ||
|
full_refresh
|
full_refresh | boolean |
Se for true, disparará uma atualização completa na tabela dinâmica delta. |
|
|
enabled
|
enabled | True | boolean |
Se for true, habilite o enfileiramento para o trabalho. Esse é um campo obrigatório. |
Retornos
- Corpo
- JobsRunNowResponse
Executar uma instrução SQL
Execute uma instrução SQL e, opcionalmente, aguarde seus resultados por um tempo especificado.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
warehouse_id
|
warehouse_id | True | string |
ID do warehouse de destino |
|
demonstrativo
|
statement | True | string |
A instrução SQL a ser executada. Opcionalmente, a instrução pode ser parametrizada, consulte parâmetros |
|
nome
|
name | True | string |
Nome do marcador de parâmetro |
|
tipo
|
type | string |
Tipo de dados de parâmetro |
|
|
value
|
value | string |
Valor do parâmetro |
|
|
catálogo
|
catalog | string |
Catálogo padrão para execução |
|
|
esquema
|
schema | string |
Esquema padrão para execução |
|
|
disposição
|
disposition | string |
Modo de busca de resultados |
|
|
format
|
format | string |
Formato do conjunto de resultados |
|
|
on_wait_timeout
|
on_wait_timeout | string |
Ação no tempo limite |
|
|
wait_timeout
|
wait_timeout | string |
Tempo limite de espera do resultado |
|
|
byte_limit
|
byte_limit | integer |
Limite de bytes de resultado |
|
|
row_limit
|
row_limit | integer |
Limite de linha de resultado |
Retornos
Resposta de execução de instrução
- Corpo
- SqlStatementResponse
Listar trabalhos
Recupera uma lista de trabalhos.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
Limit
|
limit | integer |
O número de trabalhos a serem retornados. Esse valor deve ser maior que 0 e menor ou igual a 100. O valor padrão é 20. |
|
|
Expandir Tarefas
|
expand_tasks | boolean |
Se deseja incluir detalhes da tarefa e do cluster na resposta. Observe que somente os primeiros 100 elementos serão mostrados. Use :method:jobs/get para paginar em todas as tarefas e clusters. |
|
|
Nome da Tarefa
|
name | string |
Um filtro na lista com base no nome exato do trabalho (que não diferencia maiúsculas de minúsculas). |
|
|
Token de Página
|
page_token | string |
Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a próxima página de trabalhos ou anterior, respectivamente. |
Retornos
- Corpo
- JobsListJobsResponse
Obter a saída para uma única execução
Recupere a saída e os metadados de uma única execução de tarefa. Quando uma tarefa de notebook retorna um valor por meio da chamada dbutils.notebook.exit(), você pode usar esse ponto de extremidade para recuperar esse valor. O Azure Databricks restringe essa API a retornar os primeiros 5 MB da saída. Para retornar um resultado maior, você pode armazenar resultados de trabalho em um serviço de armazenamento em nuvem. Esse ponto de extremidade valida que o parâmetro run_id é válido e retorna um código de status HTTP 400 se o parâmetro run_id for inválido. As execuções são removidas automaticamente após 60 dias. Se você quiser referenciá-los além de 60 dias, salve os resultados de execução antigos antes que eles expirem.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
Executar ID
|
run_id | True | integer |
O identificador canônico para a execução. |
Retornos
- Corpo
- JobsRunOutput
Obter resultado por índice de partes
Depois que a execução da instrução for BEM-sucedida, essa solicitação poderá ser usada para buscar qualquer parte por índice.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
ID da instrução
|
statement_id | True | string |
ID da instrução |
|
Índice de partes
|
chunk_index | True | string |
Índice de partes |
Retornos
- Corpo
- SqlResultData
Obter uma única execução de trabalho
Recupera os metadados de uma execução. Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para uma única execução retornará todas as propriedades para essa execução e os primeiros 100 elementos de propriedades de matriz (tarefas, job_clusters, job_parameters e repair_history). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se as propriedades de matriz tiverem mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. Matrizes sem resultados adicionais estarão vazias em páginas posteriores.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
Executar ID
|
run_id | True | integer |
O identificador canônico da execução para a qual recuperar os metadados. Este campo é necessário. |
|
Incluir Histórico
|
include_history | boolean |
Se deseja incluir o histórico de reparos na resposta. |
|
|
Incluir valores resolvidos
|
include_resolved_values | boolean |
Se deve incluir valores de parâmetro resolvidos na resposta. |
|
|
Token de Página
|
page_token | string |
Use next_page_token retornado da resposta GetRun anterior para solicitar a próxima página das propriedades da matriz da execução. |
Retornos
- Corpo
- JobsRun
Verificar o status e obter resultados
Obter o status, o manifesto e os resultados da instrução
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
ID da instrução
|
statement_id | True | string |
ID da instrução |
Retornos
Resposta de execução de instrução
- Corpo
- SqlStatementResponse
Definições
Object
SqlBaseChunkInfo
Metadados para uma parte do conjunto de resultados
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
byte_count
|
byte_count | integer |
Número de bytes na parte de resultado |
|
chunk_index
|
chunk_index | integer |
Posição na sequência de partes do conjunto de resultados |
|
row_count
|
row_count | integer |
Número de linhas na parte de resultado |
|
row_offset
|
row_offset | integer |
Deslocamento de linha inicial no conjunto de resultados |
SqlColumnInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
nome
|
name | string |
Nome da coluna |
|
posição
|
position | integer |
Posição da coluna (baseada em 0) |
|
type_interval_type
|
type_interval_type | string |
Formato de tipo de intervalo |
|
type_name
|
type_name | SqlColumnInfoTypeName |
O nome do tipo de dados base. Isso não inclui detalhes para tipos complexos, como STRUCT, MAP ou ARRAY. |
|
type_precision
|
type_precision | integer |
Número de dígitos para o tipo DECIMAL |
|
type_scale
|
type_scale | integer |
Número de casas decimais para tipo DECIMAL |
|
type_text
|
type_text | string |
Especificação completa do tipo SQL |
SqlColumnInfoTypeName
O nome do tipo de dados base. Isso não inclui detalhes para tipos complexos, como STRUCT, MAP ou ARRAY.
O nome do tipo de dados base. Isso não inclui detalhes para tipos complexos, como STRUCT, MAP ou ARRAY.
SqlStatementResponse
Resposta de execução de instrução
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
manifesto
|
manifest | SqlResultManifest |
Esquema e metadados do conjunto de resultados |
|
resultado
|
result | SqlResultData | |
|
statement_id
|
statement_id | string |
ID da instrução |
|
status
|
status | SqlStatementStatus |
Status de execução da instrução |
SqlResultManifest
Esquema e metadados do conjunto de resultados
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
Pedaços
|
chunks | array of SqlBaseChunkInfo |
Metadados da parte de resultado |
|
format
|
format | string | |
|
esquema
|
schema | SqlResultSchema |
Definições de coluna do conjunto de resultados |
|
total_byte_count
|
total_byte_count | integer |
Total de bytes no conjunto de resultados |
|
total_chunk_count
|
total_chunk_count | integer |
Número total de partes |
|
total_row_count
|
total_row_count | integer |
Número total de linhas |
|
truncado
|
truncated | boolean |
Status de truncamento de resultados |
SqlStatementStatus
Status de execução da instrução
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
erro
|
error | SqlServiceError | |
|
estado
|
state | SqlStatementState |
Estado de execução da instrução |
SqlStatementState
SqlServiceError
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
error_code
|
error_code | string | |
|
mensagem
|
message | string |
Mensagem de erro |
SqlResultSchema
Definições de coluna do conjunto de resultados
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
column_count
|
column_count | integer | |
|
columns
|
columns | array of SqlColumnInfo |
SqlResultData
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
byte_count
|
byte_count | integer |
Bytes na parte de resultado |
|
chunk_index
|
chunk_index | integer |
Posição da parte |
|
data_array
|
data_array | SqlJsonArray |
Matriz de matrizes com valores de cadeia de caracteres |
|
external_links
|
external_links | array of SqlExternalLink | |
|
next_chunk_index
|
next_chunk_index | integer |
Índice da próxima parte |
|
next_chunk_internal_link
|
next_chunk_internal_link | string |
Próximo link da parte |
|
row_count
|
row_count | integer |
Linhas em partes |
|
row_offset
|
row_offset | integer |
Deslocamento de linha inicial |
SqlJsonArray
Matriz de matrizes com valores de cadeia de caracteres
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
Itens
|
array of |
SqlExternalLink
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
byte_count
|
byte_count | integer |
Bytes em partes |
|
chunk_index
|
chunk_index | integer |
Posição da parte |
|
expiração
|
expiration | date-time |
Tempo de expiração do link |
|
external_link
|
external_link | string | |
|
http_headers
|
http_headers | object |
Cabeçalhos HTTP necessários |
|
next_chunk_index
|
next_chunk_index | integer |
Índice da próxima parte |
|
next_chunk_internal_link
|
next_chunk_internal_link | string |
Próximo link da parte |
|
row_count
|
row_count | integer |
Linhas em partes |
|
row_offset
|
row_offset | integer |
Deslocamento de linha inicial |
JobsRunNowResponse
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
run_id
|
run_id | integer |
A ID global exclusiva da execução recém-disparada. |
JobsPerformanceTarget
JobsPipelineParams
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
full_refresh
|
full_refresh | boolean |
Se for true, disparará uma atualização completa na tabela dinâmica delta. |
JobsQueueSettings
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
enabled
|
enabled | boolean |
Se for true, habilite o enfileiramento para o trabalho. Esse é um campo obrigatório. |
JobsListJobsResponse
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
jobs
|
jobs | array of JobsBaseJob |
A lista de trabalhos. Incluído apenas na resposta se houver trabalhos a serem listados. |
|
next_page_token
|
next_page_token | string |
Um token que pode ser usado para listar a próxima página de trabalhos (se aplicável). |
|
prev_page_token
|
prev_page_token | string |
Um token que pode ser usado para listar a página anterior de trabalhos (se aplicável). |
JobsBaseJob
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
created_time
|
created_time | integer |
O momento em que esse trabalho foi criado em milissegundos de época (milissegundos desde 1/1/1970 UTC). |
|
creator_user_name
|
creator_user_name | string |
O nome de usuário do criador. Esse campo não será incluído na resposta se o usuário já tiver sido excluído. |
|
effective_budget_policy_id
|
effective_budget_policy_id | uuid |
A ID da política de orçamento usada por esse trabalho para fins de atribuição de custo. Isso pode ser definido por meio (em ordem de precedência): 1. Administradores de orçamento por meio da conta ou do console de workspace 2. A interface do usuário de trabalhos na página de detalhes do trabalho e na API de Trabalhos usando budget_policy_id 3. Padrão inferido com base em políticas de orçamento acessíveis do run_as identidade na criação ou modificação do trabalho. |
|
has_more
|
has_more | boolean |
Indica se o trabalho tem mais propriedades de matriz (tarefas, job_clusters) que não são mostradas. Eles podem ser acessados por meio do ponto de extremidade :method:jobs/get. Ela só é relevante para a API 2.2 :method:jobs/list requests with expand_tasks=true. |
|
job_id
|
job_id | integer |
O identificador canônico para este trabalho. |
|
configurações
|
settings | JobsJobSettings | |
|
trigger_state
|
trigger_state | JobsTriggerStateProto |
JobsJobSettings
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
budget_policy_id
|
budget_policy_id | uuid |
A ID da política de orçamento especificada pelo usuário a ser usada para este trabalho. Se não for especificado, uma política de orçamento padrão poderá ser aplicada ao criar ou modificar o trabalho. Consulte effective_budget_policy_id para a política de orçamento usada por essa carga de trabalho. |
|
contínuo
|
continuous | JobsContinuous | |
|
implantação
|
deployment | JobsJobDeployment | |
|
descrição
|
description | string |
Uma descrição opcional para a vaga. O comprimento máximo é de 27700 caracteres na codificação UTF-8. |
|
edit_mode
|
edit_mode | JobsJobEditMode | |
|
email_notifications
|
email_notifications | JobsJobEmailNotifications | |
|
environments
|
environments | array of JobsJobEnvironment |
Uma lista de especificações de ambiente de execução de tarefa que podem ser referenciadas por tarefas sem servidor deste trabalho. É necessário que um ambiente esteja presente para tarefas sem servidor. Para tarefas de notebook sem servidor, o ambiente é acessível no painel de ambiente do notebook. Para outras tarefas sem servidor, o ambiente de tarefa deve ser especificado usando environment_key nas configurações da tarefa. |
|
git_source
|
git_source | JobsGitSource | |
|
Saúde
|
health | JobsJobsHealthRules | |
|
job_clusters
|
job_clusters | array of JobsJobCluster |
Uma lista de especificações de cluster de trabalho que podem ser compartilhadas e reutilizados por tarefas deste trabalho. Bibliotecas não podem ser declaradas em um cluster de trabalho compartilhado. Você deve declarar bibliotecas dependentes nas configurações de tarefa. |
|
max_concurrent_runs
|
max_concurrent_runs | integer |
Um número máximo opcional permitido de vezes que o trabalho pode ser executado simultaneamente. Defina esse valor se você quiser ser capaz de fazer várias execuções do mesmo trabalho simultaneamente. Isso é útil, por exemplo, se você disparar seu trabalho em um agendamento frequente e quiser permitir que execuções consecutivas se sobreponham entre si ou se você quiser disparar várias execuções que diferem por seus parâmetros de entrada. Essa configuração afeta apenas novas execuções. Por exemplo, suponha que a simultaneidade do trabalho seja 4 e que haja 4 execuções ativas simultâneas. Em seguida, definir a simultaneidade como 3 não eliminará nenhuma das execuções ativas. No entanto, a partir daí, novas execuções são ignoradas, a menos que haja menos de 3 execuções ativas. Esse valor não pode exceder 1000. Definir esse valor como 0 faz com que todas as novas execuções sejam ignoradas. |
|
nome
|
name | string |
Um nome opcional para o trabalho. O comprimento máximo é de 4.096 bytes na codificação UTF-8. |
|
notification_settings
|
notification_settings | JobsJobNotificationSettings | |
|
parameters
|
parameters | array of JobsJobParameterDefinition |
Definições de parâmetro no nível do trabalho |
|
performance_target
|
performance_target | JobsPerformanceTarget | |
|
fila
|
queue | JobsQueueSettings | |
|
run_as
|
run_as | JobsJobRunAs | |
|
Cronograma
|
schedule | JobsCronSchedule | |
|
tags
|
tags | object |
Um mapa de etiquetas associadas ao trabalho específico. Essas tags são encaminhadas para o cluster como rótulos de clusters de trabalho e estão sujeitas às mesmas limitações que os rótulos de cluster. No máximo 25 etiquetas podem ser adicionadas à tarefa. |
|
tarefas
|
tasks | array of JobsTask |
Uma lista de especificações de tarefa a serem executadas por este trabalho. Ele dá suporte a até 1000 elementos em pontos de extremidade de gravação (:method:jobs/create, :method:jobs/reset, :method:jobs/update, :method:jobs/submit). Os pontos de extremidade de leitura retornam apenas 100 tarefas. Se mais de 100 tarefas estiverem disponíveis, você poderá paginar por meio delas usando :method:jobs/get. Use o campo next_page_token na raiz do objeto para determinar se há mais resultados disponíveis. |
|
timeout_seconds
|
timeout_seconds | integer |
Um tempo limite opcional aplicado a cada execução dessa tarefa. Um valor de 0 significa que não há tempo limite. |
|
disparador
|
trigger | JobsTriggerSettings | |
|
webhook_notifications
|
webhook_notifications | JobsWebhookNotifications |
JobsContinuous
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
pause_status
|
pause_status | JobsPauseStatus |
JobsPauseStatus
JobsJobDeployment
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
variante
|
kind | JobsJobDeploymentKind | |
|
metadata_file_path
|
metadata_file_path | string |
Caminho do arquivo que contém metadados de implantação. |
JobsJobDeploymentKind
JobsJobEditMode
JobsJobEmailNotifications
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
on_duration_warning_threshold_exceeded
|
on_duration_warning_threshold_exceeded | array of string |
Uma lista de endereços de email a serem notificados quando a duração de uma execução exceder o limite especificado para a métrica RUN_DURATION_SECONDS no campo de integridade. Se nenhuma regra para a métrica RUN_DURATION_SECONDS for especificada no campo de integridade do trabalho, as notificações não serão enviadas. |
|
on_failure
|
on_failure | array of string |
Uma lista de endereços de email a serem notificados quando uma execução for concluída sem êxito. Uma execução é considerada como tendo sido concluída sem êxito se terminar com um INTERNAL_ERROR life_cycle_state ou um FAILED ou TIMED_OUT result_state. Se isso não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. |
|
on_start
|
on_start | array of string |
Uma lista de endereços de email a serem notificados quando uma execução começar. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. |
|
on_streaming_backlog_exceeded
|
on_streaming_backlog_exceeded | array of string |
Uma lista de endereços de email a serem notificados quando os limites de backlog de streaming forem excedidos para qualquer fluxo. Os limites de backlog de streaming podem ser definidos no campo de integridade usando as seguintes métricas: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS ou STREAMING_BACKLOG_FILES. O alerta é baseado na média de 10 minutos dessas métricas. Se o problema persistir, as notificações serão ressentidas a cada 30 minutos. |
|
on_success
|
on_success | array of string |
Uma lista de endereços de email a serem notificados quando uma execução for concluída com êxito. Considera-se que uma execução foi concluída com êxito se terminar com uma life_cycle_state TERMINADA e uma result_state SUCCESS. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. |
JobsJobEnvironment
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
environment_key
|
environment_key | string |
A chave de um ambiente. Ele tem que ser exclusivo dentro de um trabalho. |
|
Especificação
|
spec | ComputeEnvironment |
ComputeEnvironment
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
dependências
|
dependencies | array of string |
Lista de dependências pip, conforme suportado pela versão do pip nesse ambiente. Cada dependência é uma linha de arquivo de requisitos pip válida por https://pip.pypa.io/en/stable/reference/requirements-file-format/. As dependências permitidas incluem um especificador de requisitos, uma URL de arquivo morto, um caminho de projeto local (como WSFS ou volumes UC no Azure Databricks) ou uma URL de projeto vcs. |
|
environment_version
|
environment_version | string |
Obrigatório Versão do ambiente usada pelo ambiente. Cada versão vem com uma versão específica do Python e um conjunto de pacotes do Python. A versão é uma cadeia de caracteres, que consiste em um inteiro. Consulte https://learn.microsoft.com/azure/databricks/release-notes/serverless/#serverless-environment-versions. |
JobsGitSource
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
git_branch
|
git_branch | string |
Nome do branch a ser verificado e usado por este trabalho. Esse campo não pode ser especificado em conjunto com git_tag ou git_commit. |
|
git_commit
|
git_commit | string |
Confirme-se para ser verificado e usado por este trabalho. Esse campo não pode ser especificado em conjunto com git_branch ou git_tag. |
|
git_provider
|
git_provider | JobsGitProvider | |
|
git_snapshot
|
git_snapshot | JobsGitSnapshot | |
|
git_tag
|
git_tag | string |
Nome da marca a ser verificada e usada por este trabalho. Esse campo não pode ser especificado em conjunto com git_branch ou git_commit. |
|
git_url
|
git_url | string |
URL do repositório a ser clonado por esse trabalho. |
JobsGitProvider
JobsGitSnapshot
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
used_commit
|
used_commit | string |
Confirmar que foi usado para executar a execução. Se git_branch tiver sido especificado, isso apontará para o HEAD do branch no momento da execução; se git_tag foi especificado, isso aponta para a confirmação para a qual a marca aponta. |
JobsJobsHealthRules
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
regras
|
rules | array of JobsJobsHealthRule |
JobsJobsHealthRule
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
métrica
|
metric | JobsJobsHealthMetric | |
|
Op
|
op | JobsJobsHealthOperator | |
|
value
|
value | integer |
Especifica o valor limite que a métrica de integridade deve obedecer para atender à regra de integridade. |
JobsJobsHealthMetric
JobsJobsHealthOperator
JobsJobCluster
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
job_cluster_key
|
job_cluster_key | string |
Um nome exclusivo para o cluster de trabalho. Esse campo é necessário e deve ser exclusivo dentro do trabalho. JobTaskSettings pode se referir a esse campo para determinar qual cluster será iniciado para a execução da tarefa. |
|
new_cluster
|
new_cluster | ComputeClusterSpec |
ComputeClusterSpec
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
apply_policy_default_values
|
apply_policy_default_values | boolean |
Quando definido como verdadeiro, valores fixos e padrão da política serão usados para campos que são omitidos. Quando definido como false, somente valores fixos da política serão aplicados. |
|
dimensionamento automático
|
autoscale | ComputeAutoScale | |
|
autotermination_minutes
|
autotermination_minutes | integer |
Encerra automaticamente o cluster depois que ele fica inativo por esse tempo em minutos. Se não for definido, esse cluster não será encerrado automaticamente. Se especificado, o limite deve estar entre 10 e 10000 minutos. Os usuários também podem definir esse valor como 0 para desabilitar explicitamente a terminação automática. |
|
azure_attributes
|
azure_attributes | ComputeAzureAttributes | |
|
cluster_log_conf
|
cluster_log_conf | ComputeClusterLogConf | |
|
nome_do_cluster
|
cluster_name | string |
Nome do cluster solicitado pelo usuário. Isso não precisa ser exclusivo. Se não for especificado na criação, o nome do cluster será uma cadeia de caracteres vazia. Para clusters de trabalho, o nome do cluster é definido automaticamente com base nas IDs de execução do trabalho e do trabalho. |
|
custom_tags
|
custom_tags | object |
Tags adicionais para recursos de cluster. O Azure Databricks marcará todos os recursos de cluster (por exemplo, instâncias do AWS e volumes de EBS) com essas marcas além de default_tags. Observações: – Atualmente, o Azure Databricks permite no máximo 45 marcas personalizadas – os clusters só poderão reutilizar recursos de nuvem se as marcas dos recursos forem um subconjunto das marcas de cluster |
|
data_security_mode
|
data_security_mode | ComputeDataSecurityMode | |
|
docker_image
|
docker_image | ComputeDockerImage | |
|
driver_instance_pool_id
|
driver_instance_pool_id | string |
A ID opcional do pool de instâncias ao qual o cluster pertence. O cluster de pools usará o pool de instâncias com id (instance_pool_id) caso o pool de driver não tenha sido atribuído. |
|
driver_node_type_id
|
driver_node_type_id | string |
O tipo de nó do driver do Spark. Observe que esse campo é opcional; se não definido, o tipo de nó de driver será definido como o mesmo valor que node_type_id definido acima. Esse campo, juntamente com node_type_id, não deverá ser definido se virtual_cluster_size estiver definido. Se driver_node_type_id, node_type_id e virtual_cluster_size forem especificados, driver_node_type_id e node_type_id terá precedência. |
|
enable_elastic_disk
|
enable_elastic_disk | boolean |
Dimensionamento automático do Armazenamento Local: quando habilitado, esse cluster adquirirá dinamicamente espaço em disco adicional quando seus trabalhos do Spark estiverem com pouco espaço em disco. Esse recurso requer permissões específicas do AWS para funcionar corretamente – consulte o Guia do Usuário para obter mais detalhes. |
|
enable_local_disk_encryption
|
enable_local_disk_encryption | boolean |
Se o LUKS deve ser habilitado nos discos locais das VMs de cluster |
|
init_scripts
|
init_scripts | array of ComputeInitScriptInfo |
A configuração usada para armazenar scripts de inicialização. Qualquer número de destinos pode ser especificado. Os scripts são executados em sequência na ordem fornecida. Se cluster_log_conf for especificado, os logs de script de inicialização serão enviados para <destino>/<cluster-ID>/init_scripts. |
|
instance_pool_id
|
instance_pool_id | string |
A ID opcional do pool de instâncias ao qual o cluster pertence. |
|
is_single_node
|
is_single_node | boolean |
Esse campo só pode ser usado quando tipo = CLASSIC_PREVIEW. Quando definido como true, o Azure Databricks definirá automaticamente custom_tags, spark_conf e num_workers relacionados a nó único |
|
variante
|
kind | ComputeKind | |
|
node_type_id
|
node_type_id | string |
Esse campo codifica, por meio de um único valor, os recursos disponíveis para cada um dos nós do Spark neste cluster. Por exemplo, os nós do Spark podem ser provisionados e otimizados para cargas de trabalho intensivas de computação e memória. Recupere uma lista de tipos de nós disponíveis usando a chamada à API :method:clusters/listNodeType. |
|
num_workers
|
num_workers | integer |
Número de nós de trabalho que esse cluster deve ter. Um cluster tem um Driver Spark e executores de num_workers para um total de num_workers + 1 nós Spark. Observação: ao ler as propriedades de um cluster, esse campo reflete o número desejado de trabalhadores em vez do número atual real de trabalhos. Por exemplo, se um cluster for redimensionado de 5 a 10 trabalhadores, esse campo será imediatamente atualizado para refletir o tamanho de destino de 10 trabalhadores, enquanto os trabalhadores listados em spark_info aumentarão gradualmente de 5 para 10 à medida que os novos nós forem provisionados. |
|
policy_id
|
policy_id | string |
A ID da política de cluster usada para criar o cluster, se aplicável. |
|
runtime_engine
|
runtime_engine | ComputeRuntimeEngine | |
|
single_user_name
|
single_user_name | string |
Nome de usuário único se data_security_mode estiver SINGLE_USER |
|
spark_conf
|
spark_conf | object |
Um objeto que contém um conjunto opcional de pares chave-valor de configuração do Spark especificado pelo usuário. Os usuários também podem passar uma cadeia de caracteres de opções de JVM extras para o driver e os executores por meio de spark.driver.extraJavaOptions e spark.executor.extraJavaOptions, respectivamente. |
|
spark_env_vars
|
spark_env_vars | object |
Um objeto que contém um conjunto opcional de pares chave-valor de variáveis de ambiente especificados pelo usuário. Observe que o par chave-valor do formulário (X,Y) será exportado como está (ou seja, exportar X='Y') ao iniciar o driver e os trabalhadores. Para especificar um conjunto adicional de SPARK_DAEMON_JAVA_OPTS, recomendamos acrescentá-los a $SPARK_DAEMON_JAVA_OPTS, conforme mostrado no exemplo abaixo. Isso garante que todas as variáveis ambientais gerenciadas do databricks padrão também sejam incluídas. Exemplo de variáveis de ambiente do Spark: {"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} ou {"SPARK_DAEMON_JAVA_OPTS": "$SPARK_DAEMON_JAVA_OPTS -Dspark.shuffle.service.enabled=true"} |
|
spark_version
|
spark_version | string |
A versão spark do cluster, por exemplo, 3.3.x-scala2.11. Uma lista das versões disponíveis do Spark pode ser recuperada usando a chamada à API :method:clusters/sparkVersions. |
|
ssh_public_keys
|
ssh_public_keys | array of string |
Conteúdo da chave pública SSH que será adicionado a cada nó do Spark neste cluster. As chaves privadas correspondentes podem ser usadas para fazer logon com o nome de usuário ubuntu na porta 2200. Até 10 chaves podem ser especificadas. |
|
use_ml_runtime
|
use_ml_runtime | boolean |
Esse campo só pode ser usado quando tipo = CLASSIC_PREVIEW. effective_spark_version é determinado por spark_version (versão DBR), esse campo use_ml_runtime e se node_type_id é nó gpu ou não. |
|
workload_type
|
workload_type | ComputeWorkloadType |
ComputeAutoScale
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
max_workers
|
max_workers | integer |
O número máximo de trabalhos para os quais o cluster pode escalar verticalmente quando sobrecarregado. Observe que max_workers deve ser estritamente maior que min_workers. |
|
min_workers
|
min_workers | integer |
O número mínimo de trabalhos para os quais o cluster pode reduzir verticalmente quando subutilizado. É também o número inicial de trabalhos que o cluster terá após a criação. |
ComputeAzureAttributes
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
disponibilidade
|
availability | ComputeAzureAvailability | |
|
first_on_demand
|
first_on_demand | integer |
Os primeiros nós first_on_demand do cluster serão colocados em instâncias sob demanda. Esse valor deve ser maior que 0, para garantir que o nó do driver de cluster seja colocado em uma instância sob demanda. Se esse valor for maior ou igual ao tamanho atual do cluster, todos os nós serão colocados em instâncias sob demanda. Se esse valor for menor que o tamanho do cluster atual, first_on_demand nós serão colocados em instâncias sob demanda e o restante será colocado em instâncias de disponibilidade. Observe que esse valor não afeta o tamanho do cluster e não pode ser modificado ao longo do tempo de vida de um cluster. |
|
log_analytics_info
|
log_analytics_info | ComputeLogAnalyticsInfo | |
|
spot_bid_max_price
|
spot_bid_max_price | double |
O preço máximo da oferta a ser usado para instâncias spot do Azure. O preço máximo da oferta não pode ser maior do que o preço sob demanda da instância. Se não for especificado, o valor padrão será -1, que especifica que a instância não pode ser removida com base no preço e apenas com base na disponibilidade. Além disso, o valor deve ser > 0 ou -1. |
ComputeAzureAvailability
ComputeLogAnalyticsInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
log_analytics_primary_key
|
log_analytics_primary_key | string | |
|
log_analytics_workspace_id
|
log_analytics_workspace_id | string |
ComputeClusterLogConf
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
dbfs
|
dbfs | ComputeDbfsStorageInfo | |
|
volumes
|
volumes | ComputeVolumesStorageInfo |
ComputeDbfsStorageInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
destino
|
destination | string |
destino de dbfs, por exemplo, dbfs:/my/path |
ComputeVolumesStorageInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
destino
|
destination | string |
Destino de volumes uc, por exemplo, /Volumes/catalog/schema/vol1/init-scripts/setup-datadog.sh ou dbfs:/Volumes/catalog/schema/vol1/init-scripts/setup-datadog.sh |
ComputeDataSecurityMode
ComputeDockerImage
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
basic_auth
|
basic_auth | ComputeDockerBasicAuth | |
|
url
|
url | string |
URL da imagem do Docker. |
ComputeDockerBasicAuth
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
senha
|
password | string |
Senha do usuário |
|
nome de usuário
|
username | string |
Nome do utilizador |
ComputeInitScriptInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
abfss
|
abfss | ComputeAdlsgen2Info | |
|
arquivo
|
file | ComputeLocalFileInfo | |
|
Gcs
|
gcs | ComputeGcsStorageInfo | |
|
volumes
|
volumes | ComputeVolumesStorageInfo | |
|
espaço de trabalho
|
workspace | ComputeWorkspaceStorageInfo |
ComputeAdlsgen2Info
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
destino
|
destination | string |
abfss destination, por exemplo, abfss:// container-name<@>storage-account-name.dfs.core.windows.net/<> directory-name<>. |
ComputeLocalFileInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
destino
|
destination | string |
destino do arquivo local, por exemplo, arquivo:/my/local/file.sh |
ComputeGcsStorageInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
destino
|
destination | string |
Destino/URI do GCS, por exemplo, gs://my-bucket/some-prefix |
ComputeWorkspaceStorageInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
destino
|
destination | string |
destino do wsfs, por exemplo, workspace:/cluster-init-scripts/setup-datadog.sh |
ComputeKind
ComputeRuntimeEngine
ComputeWorkloadType
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
clients
|
clients | ComputeClientsTypes |
ComputeClientsTypes
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
jobs
|
jobs | boolean |
Com os trabalhos definidos, o cluster pode ser usado para trabalhos |
|
Notebooks
|
notebooks | boolean |
Com os notebooks definidos, esse cluster pode ser usado para notebooks |
JobsJobNotificationSettings
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
no_alert_for_canceled_runs
|
no_alert_for_canceled_runs | boolean |
Se for true, não envie notificações para destinatários especificados no on_failure se a execução for cancelada. |
|
no_alert_for_skipped_runs
|
no_alert_for_skipped_runs | boolean |
Se for true, não envie notificações para destinatários especificados em on_failure se a execução for ignorada. |
JobsJobParameterDefinition
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
padrão
|
default | string |
Valor padrão do parâmetro. |
|
nome
|
name | string |
O nome do parâmetro definido. Pode conter apenas caracteres alfanuméricos, _, -, e . |
JobsJobRunAs
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
service_principal_name
|
service_principal_name | string |
ID do aplicativo de uma entidade de serviço ativa. Definir esse campo requer a função servicePrincipal/user. |
|
user_name
|
user_name | string |
O e-mail de um usuário ativo do workspace. Usuários não administradores só podem definir esse campo como seu próprio email. |
JobsCronSchedule
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
pause_status
|
pause_status | JobsPauseStatus | |
|
quartz_cron_expression
|
quartz_cron_expression | string |
Uma expressão Cron usando a sintaxe de Quartzo que descreve a agenda de um trabalho. Consulte o Gatilho cron para obter detalhes. Este campo é necessário. |
|
timezone_id
|
timezone_id | string |
Uma ID de fuso horário java. A agenda de um trabalho é resolvida em relação a esse fuso horário. Consulte o Fuso Horário do Java para obter detalhes. Este campo é necessário. |
JobsTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
clean_rooms_notebook_task
|
clean_rooms_notebook_task | Object | |
|
condition_task
|
condition_task | JobsConditionTask | |
|
dashboard_task
|
dashboard_task | JobsDashboardTask | |
|
dbt_task
|
dbt_task | Object | |
|
depends_on
|
depends_on | array of JobsTaskDependency |
Uma matriz opcional de objetos que especifica o grafo de dependência da tarefa. Todas as tarefas especificadas neste campo devem ser concluídas antes de executar essa tarefa. A tarefa será executada somente se a condição run_if for verdadeira. A chave é task_key e o valor é o nome atribuído à tarefa dependente. |
|
descrição
|
description | string |
Uma descrição opcional para essa tarefa. |
|
disable_auto_optimization
|
disable_auto_optimization | boolean |
Uma opção para desabilitar a otimização automática no sem servidor |
|
email_notifications
|
email_notifications | JobsTaskEmailNotifications | |
|
environment_key
|
environment_key | string |
A chave que faz referência a uma especificação de ambiente em um trabalho. Esse campo é necessário para script Python, roda python e tarefas dbt ao usar computação sem servidor. |
|
existing_cluster_id
|
existing_cluster_id | string |
Se existing_cluster_id, a ID de um cluster existente que é usada para todas as execuções. Ao executar trabalhos ou tarefas em um cluster existente, talvez seja necessário reiniciar manualmente o cluster se ele parar de responder. Sugerimos a execução de trabalhos e tarefas em novos clusters para maior confiabilidade |
|
for_each_task
|
for_each_task | JobsForEachTask | |
|
Saúde
|
health | JobsJobsHealthRules | |
|
job_cluster_key
|
job_cluster_key | string |
Se job_cluster_key, essa tarefa será executada reutilizando o cluster especificado em job.settings.job_clusters. |
|
libraries
|
libraries | array of ComputeLibrary |
Uma lista opcional de bibliotecas a serem instaladas no cluster. O valor padrão é uma lista vazia. |
|
max_retries
|
max_retries | integer |
Um número máximo opcional de vezes para tentar novamente uma execução malsucedida. Uma execução será considerada sem êxito se for concluída com o result_state ou INTERNAL_ERROR life_cycle_state com falha. O valor -1 significa repetir indefinidamente e o valor 0 significa nunca repetir. |
|
min_retry_interval_millis
|
min_retry_interval_millis | integer |
Um intervalo mínimo opcional em milissegundos entre o início da execução com falha e a execução de repetição subsequente. O comportamento padrão é que execuções malsucedidas são repetidas imediatamente. |
|
new_cluster
|
new_cluster | ComputeClusterSpec | |
|
notebook_task
|
notebook_task | JobsNotebookTask | |
|
notification_settings
|
notification_settings | JobsTaskNotificationSettings | |
|
pipeline_task
|
pipeline_task | JobsPipelineTask | |
|
power_bi_task
|
power_bi_task | Object | |
|
python_wheel_task
|
python_wheel_task | JobsPythonWheelTask | |
|
retry_on_timeout
|
retry_on_timeout | boolean |
Uma política opcional para especificar se um trabalho será repetido quando atingir o tempo limite. O comportamento padrão é não repetir o tempo limite. |
|
run_if
|
run_if | JobsRunIf | |
|
run_job_task
|
run_job_task | JobsRunJobTask | |
|
spark_jar_task
|
spark_jar_task | JobsSparkJarTask | |
|
spark_python_task
|
spark_python_task | JobsSparkPythonTask | |
|
spark_submit_task
|
spark_submit_task | JobsSparkSubmitTask | |
|
sql_task
|
sql_task | Object | |
|
task_key
|
task_key | string |
Um nome exclusivo para a tarefa. Esse campo é usado para fazer referência a essa tarefa de outras tarefas. Esse campo é necessário e deve ser exclusivo em seu trabalho pai. Em Atualizar ou Redefinir, esse campo é usado para fazer referência às tarefas a serem atualizadas ou redefinidas. |
|
timeout_seconds
|
timeout_seconds | integer |
Um tempo limite opcional aplicado a cada execução desta tarefa de trabalho. Um valor de 0 significa que não há tempo limite. |
|
webhook_notifications
|
webhook_notifications | JobsWebhookNotifications |
JobsConditionTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
esquerda
|
left | string |
O operando à esquerda da tarefa de condição. Pode ser um valor de cadeia de caracteres ou um estado de trabalho ou referência de parâmetro. |
|
Op
|
op | JobsConditionTaskOp | |
|
Certo
|
right | string |
O operando direito da tarefa de condição. Pode ser um valor de cadeia de caracteres ou um estado de trabalho ou referência de parâmetro. |
JobsConditionTaskOp
JobsDashboardTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
dashboard_id
|
dashboard_id | string |
O identificador do painel a ser atualizado. |
|
assinatura
|
subscription | JobsSubscription | |
|
warehouse_id
|
warehouse_id | string |
Opcional: a ID do warehouse com a qual executar o painel para o agendamento. Se não for especificado, o warehouse padrão do painel será usado. |
JobsSubscription
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
custom_subject
|
custom_subject | string |
Opcional: permite que os usuários especifiquem uma linha de assunto personalizada no email enviado aos assinantes. |
|
Pausado
|
paused | boolean |
Quando verdadeiro, a assinatura não enviará emails. |
|
Assinantes
|
subscribers | array of JobsSubscriptionSubscriber |
A lista de assinantes para a qual enviar o instantâneo do painel. |
JobsSubscriptionSubscriber
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
destination_id
|
destination_id | string |
Um instantâneo do painel será enviado para o destino quando o campo destination_id estiver presente. |
|
user_name
|
user_name | string |
Um instantâneo do painel será enviado para o email do usuário quando o campo user_name estiver presente. |
JobsSource
JobsTaskDependency
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
resultado
|
outcome | string |
Só pode ser especificado em dependências de tarefa de condição. O resultado da tarefa dependente que deve ser atendida para que essa tarefa seja executada. |
|
task_key
|
task_key | string |
O nome da tarefa da qual essa tarefa depende. |
JobsTaskEmailNotifications
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
on_duration_warning_threshold_exceeded
|
on_duration_warning_threshold_exceeded | array of string |
Uma lista de endereços de email a serem notificados quando a duração de uma execução exceder o limite especificado para a métrica RUN_DURATION_SECONDS no campo de integridade. Se nenhuma regra para a métrica RUN_DURATION_SECONDS for especificada no campo de integridade do trabalho, as notificações não serão enviadas. |
|
on_failure
|
on_failure | array of string |
Uma lista de endereços de email a serem notificados quando uma execução for concluída sem êxito. Uma execução é considerada como tendo sido concluída sem êxito se terminar com um INTERNAL_ERROR life_cycle_state ou um FAILED ou TIMED_OUT result_state. Se isso não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. |
|
on_start
|
on_start | array of string |
Uma lista de endereços de email a serem notificados quando uma execução começar. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. |
|
on_streaming_backlog_exceeded
|
on_streaming_backlog_exceeded | array of string |
Uma lista de endereços de email a serem notificados quando os limites de backlog de streaming forem excedidos para qualquer fluxo. Os limites de backlog de streaming podem ser definidos no campo de integridade usando as seguintes métricas: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS ou STREAMING_BACKLOG_FILES. O alerta é baseado na média de 10 minutos dessas métricas. Se o problema persistir, as notificações serão ressentidas a cada 30 minutos. |
|
on_success
|
on_success | array of string |
Uma lista de endereços de email a serem notificados quando uma execução for concluída com êxito. Considera-se que uma execução foi concluída com êxito se terminar com uma life_cycle_state TERMINADA e uma result_state SUCCESS. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas. |
ComputeLibrary
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
Cran
|
cran | ComputeRCranLibrary | |
|
jarro
|
jar | string |
URI da biblioteca JAR a ser instalada. As URIs com suporte incluem caminhos de workspace, caminhos de volumes de catálogo do Unity e URIs do ADLS. Por exemplo: { "jar": "/Workspace/path/to/library.jar" }, { "jar" : "/Volumes/path/to/library.jar" } ou { "jar": "abfss://my-bucket/library.jar" }. Se o ADLS for usado, verifique se o cluster tem acesso de leitura na biblioteca. Talvez seja necessário iniciar o cluster com uma entidade de serviço do Microsoft Entra ID para acessar o URI do ADLS. |
|
especialista
|
maven | ComputeMavenLibrary | |
|
pypi
|
pypi | ComputePythonPyPiLibrary | |
|
requisitos
|
requirements | string |
URI do arquivo requirements.txt a ser instalado. Há suporte apenas para caminhos de workspace e caminhos de volumes de catálogo do Unity. Por exemplo: { "requirements": "/Workspace/path/to/requirements.txt" } ou { "requirements" : "/Volumes/path/to/requirements.txt" } |
|
whl
|
whl | string |
URI da biblioteca de rodas a ser instalada. As URIs com suporte incluem caminhos de workspace, caminhos de volumes de catálogo do Unity e URIs do ADLS. Por exemplo: { "whl": "/Workspace/path/to/library.whl" }, { "whl" : "/Volumes/path/to/library.whl" } ou { "whl": "abfss://my-bucket/library.whl" }. Se o ADLS for usado, verifique se o cluster tem acesso de leitura na biblioteca. Talvez seja necessário iniciar o cluster com uma entidade de serviço do Microsoft Entra ID para acessar o URI do ADLS. |
JobsForEachTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
simultaneidade
|
concurrency | integer |
Um número máximo permitido opcional de execuções simultâneas da tarefa. Defina esse valor se você quiser ser capaz de executar várias execuções da tarefa simultaneamente. |
|
entradas
|
inputs | string |
Matriz para tarefa a ser iterada. Pode ser uma cadeia de caracteres JSON ou uma referência a um parâmetro de matriz. |
|
tarefa
|
task | Object |
ComputeRCranLibrary
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
pacote
|
package | string |
O nome do pacote CRAN a ser instalado. |
|
repositório
|
repo | string |
O repositório em que o pacote pode ser encontrado. Se não for especificado, o repositório CRAN padrão será usado. |
ComputeMavenLibrary
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
Coordenadas
|
coordinates | string |
Coordenadas maven no estilo Gradle. Por exemplo: "org.jsoup:jsoup:1.7.2". |
|
Exclusões
|
exclusions | array of string |
Lista de dependências a serem excluídas. Por exemplo: ["slf4j:slf4j", "*:hadoop-client"]. Exclusões de dependência do Maven: https://maven.apache.org/guides/introduction/introduction-to-optional-and-excludes-dependencies.html. |
|
repositório
|
repo | string |
Repositório maven do qual instalar o pacote Maven. Se omitido, os pacotes do Repositório Central do Maven e do Spark serão pesquisados. |
ComputePythonPyPiLibrary
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
pacote
|
package | string |
O nome do pacote pypi a ser instalado. Também há suporte para uma especificação de versão exata opcional. Exemplos: "simplejson" e "simplejson==3.8.0". |
|
repositório
|
repo | string |
O repositório em que o pacote pode ser encontrado. Se não for especificado, o índice pip padrão será usado. |
JobsNotebookTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
base_parameters
|
base_parameters | object |
Parâmetros base a serem usados para cada execução deste trabalho. Se a execução for iniciada por uma chamada para :method:jobs/run Now com parâmetros especificados, os dois mapas de parâmetros serão mesclados. Se a mesma chave for especificada em base_parameters e em execução agora, o valor de run-now será usado. Use variáveis de parâmetro de tarefa para definir parâmetros que contêm informações sobre execuções de trabalho. Se o notebook usa um parâmetro que não é especificado no base_parameters do trabalho ou nos parâmetros de substituição run-now, o valor padrão do notebook é usado. Recupere esses parâmetros em um notebook usando dbutils.widgets.get. A representação JSON desse campo não pode exceder 1 MB. |
|
notebook_path
|
notebook_path | string |
O caminho do notebook a ser executado no workspace do Azure Databricks ou no repositório remoto. Para notebooks armazenados no workspace do Azure Databricks, o caminho deve ser absoluto e começar com uma barra. Para notebooks armazenados em um repositório remoto, o caminho deve ser relativo. Este campo é necessário. |
|
fonte
|
source | JobsSource | |
|
warehouse_id
|
warehouse_id | string |
O warehouse_id opcional para executar o notebook em um sql warehouse. Não há suporte para armazéns SQL clássicos, use sql warehouses sem servidor ou profissionais. Observe que os sql warehouses dão suporte apenas a células SQL; se o notebook contiver células não SQL, a execução falhará. |
JobsTaskNotificationSettings
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
alert_on_last_attempt
|
alert_on_last_attempt | boolean |
Se for true, não envie notificações aos destinatários especificados em on_start para as execuções repetidas e não envie notificações aos destinatários especificados em on_failure até a última repetição da execução. |
|
no_alert_for_canceled_runs
|
no_alert_for_canceled_runs | boolean |
Se for true, não envie notificações para destinatários especificados no on_failure se a execução for cancelada. |
|
no_alert_for_skipped_runs
|
no_alert_for_skipped_runs | boolean |
Se for true, não envie notificações para destinatários especificados em on_failure se a execução for ignorada. |
JobsPipelineTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
full_refresh
|
full_refresh | boolean |
Se for true, disparará uma atualização completa na tabela dinâmica delta. |
|
pipeline_id
|
pipeline_id | string |
O nome completo da tarefa de pipeline a ser executada. |
JobsPythonWheelTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
entry_point
|
entry_point | string |
Ponto de entrada nomeado a ser usado, se ele não existir nos metadados do pacote, ele executará a função do pacote diretamente usando $packageName.$entryPoint() |
|
named_parameters
|
named_parameters | object |
Parâmetros de linha de comando passados para a tarefa de roda do Python na forma de ["--name=task", "--data=dbfs:/path/to/data.json"]. Deixe-o vazio se os parâmetros não forem nulos. |
|
package_name
|
package_name | string |
Nome do pacote a ser executado |
|
parameters
|
parameters | array of string |
Parâmetros de linha de comando passados para a tarefa de roda do Python. Deixe-o vazio se named_parameters não for nulo. |
JobsRunIf
JobsRunJobTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
job_id
|
job_id | integer |
ID do trabalho a ser disparado. |
|
job_parameters
|
job_parameters | object |
Parâmetros de nível de trabalho usados para disparar o trabalho. |
|
pipeline_params
|
pipeline_params | JobsPipelineParams |
JobsSparkJarTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
main_class_name
|
main_class_name | string |
O nome completo da classe que contém o método principal a ser executado. Essa classe deve estar contida em um JAR fornecido como uma biblioteca. O código deve usar SparkContext.getOrCreate para obter um contexto spark; caso contrário, as execuções do trabalho falharão. |
|
parameters
|
parameters | array of string |
Parâmetros passados para o método principal. Use variáveis de parâmetro de tarefa para definir parâmetros que contêm informações sobre execuções de trabalho. |
JobsSparkPythonTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
parameters
|
parameters | array of string |
Parâmetros de linha de comando passados para o arquivo Python. Use variáveis de parâmetro de tarefa para definir parâmetros que contêm informações sobre execuções de trabalho. |
|
python_file
|
python_file | string |
O arquivo Python a ser executado. Há suporte para URIs de arquivo de nuvem (como dbfs:/, s3:/, adls:/, gcs:/) e caminhos de workspace. Para arquivos python armazenados no workspace do Azure Databricks, o caminho deve ser absoluto e começar com /. Para arquivos armazenados em um repositório remoto, o caminho deve ser relativo. Este campo é necessário. |
|
fonte
|
source | JobsSource |
JobsSparkSubmitTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
parameters
|
parameters | array of string |
Parâmetros de linha de comando passados para o envio do Spark. Use variáveis de parâmetro de tarefa para definir parâmetros que contêm informações sobre execuções de trabalho. |
JobsWebhookNotifications
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
on_duration_warning_threshold_exceeded
|
on_duration_warning_threshold_exceeded | array of JobsWebhook |
Uma lista opcional de IDs de notificação do sistema a serem chamadas quando a duração de uma execução excede o limite especificado para a métrica RUN_DURATION_SECONDS no campo de integridade. Um máximo de 3 destinos pode ser especificado para a propriedade on_duration_warning_threshold_exceeded. |
|
on_failure
|
on_failure | array of JobsWebhook |
Uma lista opcional de IDs de notificação do sistema a serem chamadas quando a execução falhar. Um máximo de 3 destinos pode ser especificado para a propriedade on_failure. |
|
on_start
|
on_start | array of JobsWebhook |
Uma lista opcional de IDs de notificação do sistema a serem chamadas quando a execução for iniciada. Um máximo de 3 destinos pode ser especificado para a propriedade on_start. |
|
on_streaming_backlog_exceeded
|
on_streaming_backlog_exceeded | array of JobsWebhook |
Uma lista opcional de IDs de notificação do sistema a serem chamadas quando os limites de backlog de streaming forem excedidos para qualquer fluxo. Os limites de backlog de streaming podem ser definidos no campo de integridade usando as seguintes métricas: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS ou STREAMING_BACKLOG_FILES. O alerta é baseado na média de 10 minutos dessas métricas. Se o problema persistir, as notificações serão ressentidas a cada 30 minutos. Um máximo de 3 destinos pode ser especificado para a propriedade on_streaming_backlog_exceeded. |
|
on_success
|
on_success | array of JobsWebhook |
Uma lista opcional de IDs de notificação do sistema para chamar quando a execução for concluída com êxito. Um máximo de 3 destinos pode ser especificado para a propriedade on_success. |
JobsWebhook
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
JobsTriggerSettings
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
file_arrival
|
file_arrival | JobsFileArrivalTriggerConfiguration | |
|
pause_status
|
pause_status | JobsPauseStatus | |
|
periódico
|
periodic | JobsPeriodicTriggerConfiguration |
JobsFileArrivalTriggerConfiguration
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
min_time_between_triggers_seconds
|
min_time_between_triggers_seconds | integer |
Se definido, o gatilho iniciará uma execução somente após a quantidade de tempo especificada passada desde a última vez em que o gatilho foi acionado. O valor mínimo permitido é de 60 segundos |
|
url
|
url | string |
URL a ser monitorada para chegadas de arquivos. O caminho deve apontar para a raiz ou um subcaminho do local externo. |
|
wait_after_last_change_seconds
|
wait_after_last_change_seconds | integer |
Se definido, o gatilho iniciará uma execução somente depois que nenhuma atividade de arquivo tiver ocorrido durante o período de tempo especificado. Isso possibilita aguardar a chegada de um lote de arquivos de entrada antes de disparar uma execução. O valor mínimo permitido é de 60 segundos. |
JobsPeriodicTriggerConfiguration
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
intervalo
|
interval | integer |
O intervalo no qual o gatilho deve ser executado. |
|
unidade
|
unit | JobsPeriodicTriggerConfigurationTimeUnit |
JobsPeriodicTriggerConfigurationTimeUnit
JobsTriggerStateProto
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
file_arrival
|
file_arrival | JobsFileArrivalTriggerState |
JobsFileArrivalTriggerState
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
using_file_events
|
using_file_events | boolean |
Indica se o gatilho aproveita eventos de arquivo para detectar chegadas de arquivo. |
JobsRun
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
attempt_number
|
attempt_number | integer |
O número de sequência dessa tentativa de execução para uma execução de trabalho disparada. A tentativa inicial de uma execução tem um attempt_number de 0. Se a tentativa de execução inicial falhar e o trabalho tiver uma política de repetição (max_retries > 0), as execuções subsequentes serão criadas com um original_attempt_run_id da ID da tentativa original e uma attempt_number de incremento. As execuções são repetidas somente até que tenham êxito e o attempt_number máximo é o mesmo que o valor max_retries para o trabalho. |
|
cleanup_duration
|
cleanup_duration | integer |
O tempo em milissegundos necessário para encerrar o cluster e limpar quaisquer artefatos associados. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo cleanup_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration. |
|
cluster_instance
|
cluster_instance | JobsClusterInstance | |
|
cluster_spec
|
cluster_spec | JobsClusterSpec | |
|
creator_user_name
|
creator_user_name | string |
O nome de usuário do criador. Esse campo não será incluído na resposta se o usuário já tiver sido excluído. |
|
descrição
|
description | string |
Descrição da execução |
|
effective_performance_target
|
effective_performance_target | JobsPerformanceTarget | |
|
end_time
|
end_time | integer |
A hora em que essa execução terminou em milissegundos de época (milissegundos desde 1/1/1970 UTC). Esse campo será definido como 0 se o trabalho ainda estiver em execução. |
|
execution_duration
|
execution_duration | integer |
O tempo em milissegundos que levou para executar os comandos no JAR ou notebook até que eles concluíssem, falhassem, atingissem o tempo limite, fossem cancelados ou encontrassem um erro inesperado. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo execution_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration. |
|
git_source
|
git_source | JobsGitSource | |
|
has_more
|
has_more | boolean |
Indica se a execução tem mais propriedades de matriz (tarefas, job_clusters) que não são mostradas. Eles podem ser acessados por meio do ponto de extremidade :method:jobs/getrun. Ela só é relevante para solicitações da API 2.2 :method:jobs/listruns com expand_tasks=true. |
|
job_clusters
|
job_clusters | array of JobsJobCluster |
Uma lista de especificações de cluster de trabalho que podem ser compartilhadas e reutilizados por tarefas deste trabalho. Bibliotecas não podem ser declaradas em um cluster de trabalho compartilhado. Você deve declarar bibliotecas dependentes nas configurações de tarefa. Se mais de 100 clusters de trabalho estiverem disponíveis, você poderá paginar por meio deles usando :method:jobs/getrun. |
|
job_id
|
job_id | integer |
O identificador canônico do trabalho que contém essa execução. |
|
job_parameters
|
job_parameters | array of JobsJobParameter |
Parâmetros de nível de trabalho usados na execução |
|
job_run_id
|
job_run_id | integer |
ID da execução do trabalho à qual essa execução pertence. Para o trabalho herdado e de tarefa única, o campo é preenchido com a ID de execução do trabalho. Para execuções de tarefa, o campo é preenchido com a ID da execução do trabalho à qual a execução da tarefa pertence. |
|
next_page_token
|
next_page_token | string |
Um token que pode ser usado para listar a próxima página de propriedades da matriz. |
|
original_attempt_run_id
|
original_attempt_run_id | integer |
Se essa execução for uma repetição de uma tentativa de execução anterior, esse campo conterá o run_id da tentativa original; caso contrário, é o mesmo que o run_id. |
|
overriding_parameters
|
overriding_parameters | JobsRunParameters | |
|
queue_duration
|
queue_duration | integer |
O tempo em milissegundos que a execução gastou na fila. |
|
repair_history
|
repair_history | array of JobsRepairHistoryItem |
O histórico de reparo da execução. |
|
run_duration
|
run_duration | integer |
O tempo em milissegundos levou a execução do trabalho e todos os seus reparos para terminar. |
|
run_id
|
run_id | integer |
O identificador canônico da execução. Essa ID é exclusiva em todas as execuções de todos os trabalhos. |
|
run_name
|
run_name | string |
Um nome opcional para a execução. O comprimento máximo é de 4.096 bytes na codificação UTF-8. |
|
run_page_url
|
run_page_url | string |
A URL na página de detalhes da execução. |
|
tipo_de_execução
|
run_type | JobsRunType | |
|
Cronograma
|
schedule | JobsCronSchedule | |
|
setup_duration
|
setup_duration | integer |
O tempo em milissegundos necessário para configurar o cluster. Para execuções executadas em novos clusters, esse é o tempo de criação do cluster, para execuções executadas em clusters existentes desta vez deve ser muito curta. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo setup_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration. |
|
hora de início
|
start_time | integer |
O momento em que essa execução foi iniciada em milissegundos de época (milissegundos desde 1/1/1970 UTC). Essa pode não ser a hora em que a tarefa de trabalho começa a ser executada, por exemplo, se o trabalho está agendado para ser executado em um novo cluster, esse é o momento em que a chamada de criação do cluster é emitida. |
|
status
|
status | JobsRunStatus | |
|
tarefas
|
tasks | array of JobsRunTask |
A lista de tarefas executadas pela execução. Cada tarefa tem seus próprios run_id que você pode usar para chamar JobsGetOutput para recuperar as versões de execução. Se mais de 100 tarefas estiverem disponíveis, você poderá paginar por meio delas usando :method:jobs/getrun. Use o campo next_page_token na raiz do objeto para determinar se há mais resultados disponíveis. |
|
disparador
|
trigger | JobsTriggerType | |
|
trigger_info
|
trigger_info | JobsTriggerInfo |
JobsClusterInstance
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
cluster_id
|
cluster_id | string |
O identificador canônico para o cluster usado por uma execução. Esse campo está sempre disponível para execuções em clusters existentes. Para execuções em novos clusters, ele fica disponível depois que o cluster é criado. Esse valor pode ser usado para exibir logs navegando até /#setting/sparkui/$cluster_id/driver-logs. Os logs continuam disponíveis após a conclusão da execução. A resposta não incluirá esse campo se o identificador ainda não estiver disponível. |
|
spark_context_id
|
spark_context_id | string |
O identificador canônico para o contexto spark usado por uma execução. Esse campo é preenchido quando a execução inicia a execução. Esse valor pode ser usado para exibir a interface do usuário do Spark navegando até /#setting/sparkui/$cluster_id/$spark_context_id. A interface do usuário do Spark continua disponível após a conclusão da execução. A resposta não incluirá esse campo se o identificador ainda não estiver disponível. |
JobsClusterSpec
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
existing_cluster_id
|
existing_cluster_id | string |
Se existing_cluster_id, a ID de um cluster existente que é usada para todas as execuções. Ao executar trabalhos ou tarefas em um cluster existente, talvez seja necessário reiniciar manualmente o cluster se ele parar de responder. Sugerimos a execução de trabalhos e tarefas em novos clusters para maior confiabilidade |
|
job_cluster_key
|
job_cluster_key | string |
Se job_cluster_key, essa tarefa será executada reutilizando o cluster especificado em job.settings.job_clusters. |
|
libraries
|
libraries | array of ComputeLibrary |
Uma lista opcional de bibliotecas a serem instaladas no cluster. O valor padrão é uma lista vazia. |
|
new_cluster
|
new_cluster | ComputeClusterSpec |
JobsJobParameter
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
padrão
|
default | string |
O valor padrão opcional do parâmetro |
|
nome
|
name | string |
O nome do parâmetro |
|
value
|
value | string |
O valor usado na execução |
JobsRunParameters
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
pipeline_params
|
pipeline_params | JobsPipelineParams |
JobsRepairHistoryItem
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
effective_performance_target
|
effective_performance_target | JobsPerformanceTarget | |
|
end_time
|
end_time | integer |
A hora de término da execução (reparada). |
|
id
|
id | integer |
A ID do reparo. Retornado apenas para os itens que representam um reparo em repair_history. |
|
hora de início
|
start_time | integer |
A hora de início da execução (reparada). |
|
status
|
status | JobsRunStatus | |
|
task_run_ids
|
task_run_ids | array of integer |
As IDs de execução da tarefa são executadas como parte desse item de histórico de reparos. |
|
tipo
|
type | JobsRepairHistoryItemType |
JobsRunStatus
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
queue_details
|
queue_details | JobsQueueDetails | |
|
estado
|
state | JobsRunLifecycleStateV2State | |
|
termination_details
|
termination_details | JobsTerminationDetails |
JobsQueueDetails
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
codificar
|
code | JobsQueueDetailsCodeCode | |
|
mensagem
|
message | string |
Uma mensagem descritiva com os detalhes da fila. Esse campo não foi estruturado e seu formato exato está sujeito a alterações. |
JobsQueueDetailsCodeCode
JobsRunLifecycleStateV2State
JobsTerminationDetails
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
codificar
|
code | JobsTerminationCodeCode | |
|
mensagem
|
message | string |
Uma mensagem descritiva com os detalhes da terminação. Esse campo não foi estruturado e o formato pode ser alterado. |
|
tipo
|
type | JobsTerminationTypeType |
JobsTerminationCodeCode
JobsTerminationTypeType
JobsRepairHistoryItemType
JobsRunType
JobsRunTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
attempt_number
|
attempt_number | integer |
O número de sequência dessa tentativa de execução para uma execução de trabalho disparada. A tentativa inicial de uma execução tem um attempt_number de 0. Se a tentativa de execução inicial falhar e o trabalho tiver uma política de repetição (max_retries > 0), as execuções subsequentes serão criadas com um original_attempt_run_id da ID da tentativa original e uma attempt_number de incremento. As execuções são repetidas somente até que tenham êxito e o attempt_number máximo é o mesmo que o valor max_retries para o trabalho. |
|
clean_rooms_notebook_task
|
clean_rooms_notebook_task | Object | |
|
cleanup_duration
|
cleanup_duration | integer |
O tempo em milissegundos necessário para encerrar o cluster e limpar quaisquer artefatos associados. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo cleanup_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration. |
|
cluster_instance
|
cluster_instance | JobsClusterInstance | |
|
condition_task
|
condition_task | JobsRunConditionTask | |
|
dashboard_task
|
dashboard_task | Object | |
|
dbt_task
|
dbt_task | Object | |
|
depends_on
|
depends_on | array of JobsTaskDependency |
Uma matriz opcional de objetos que especifica o grafo de dependência da tarefa. Todas as tarefas especificadas neste campo devem ser concluídas com êxito antes de executar essa tarefa. A chave é task_key e o valor é o nome atribuído à tarefa dependente. |
|
descrição
|
description | string |
Uma descrição opcional para essa tarefa. |
|
effective_performance_target
|
effective_performance_target | JobsPerformanceTarget | |
|
email_notifications
|
email_notifications | JobsJobEmailNotifications | |
|
end_time
|
end_time | integer |
A hora em que essa execução terminou em milissegundos de época (milissegundos desde 1/1/1970 UTC). Esse campo será definido como 0 se o trabalho ainda estiver em execução. |
|
environment_key
|
environment_key | string |
A chave que faz referência a uma especificação de ambiente em um trabalho. Esse campo é necessário para script Python, roda python e tarefas dbt ao usar computação sem servidor. |
|
execution_duration
|
execution_duration | integer |
O tempo em milissegundos que levou para executar os comandos no JAR ou notebook até que eles concluíssem, falhassem, atingissem o tempo limite, fossem cancelados ou encontrassem um erro inesperado. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo execution_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration. |
|
existing_cluster_id
|
existing_cluster_id | string |
Se existing_cluster_id, a ID de um cluster existente que é usada para todas as execuções. Ao executar trabalhos ou tarefas em um cluster existente, talvez seja necessário reiniciar manualmente o cluster se ele parar de responder. Sugerimos a execução de trabalhos e tarefas em novos clusters para maior confiabilidade |
|
for_each_task
|
for_each_task | Object | |
|
git_source
|
git_source | JobsGitSource | |
|
job_cluster_key
|
job_cluster_key | string |
Se job_cluster_key, essa tarefa será executada reutilizando o cluster especificado em job.settings.job_clusters. |
|
libraries
|
libraries | array of Object |
Uma lista opcional de bibliotecas a serem instaladas no cluster. O valor padrão é uma lista vazia. |
|
new_cluster
|
new_cluster | Object | |
|
notebook_task
|
notebook_task | JobsNotebookTask | |
|
notification_settings
|
notification_settings | Object | |
|
pipeline_task
|
pipeline_task | Object | |
|
power_bi_task
|
power_bi_task | Object | |
|
python_wheel_task
|
python_wheel_task | Object | |
|
queue_duration
|
queue_duration | integer |
O tempo em milissegundos que a execução gastou na fila. |
|
resolved_values
|
resolved_values | JobsResolvedValues | |
|
run_duration
|
run_duration | integer |
O tempo em milissegundos levou a execução do trabalho e todos os seus reparos para terminar. |
|
run_id
|
run_id | integer |
A ID da execução da tarefa. |
|
run_if
|
run_if | JobsRunIf | |
|
run_job_task
|
run_job_task | JobsRunJobTask | |
|
run_page_url
|
run_page_url | string | |
|
setup_duration
|
setup_duration | integer |
O tempo em milissegundos necessário para configurar o cluster. Para execuções executadas em novos clusters, esse é o tempo de criação do cluster, para execuções executadas em clusters existentes desta vez deve ser muito curta. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo setup_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration. |
|
spark_jar_task
|
spark_jar_task | Object | |
|
spark_python_task
|
spark_python_task | Object | |
|
spark_submit_task
|
spark_submit_task | Object | |
|
sql_task
|
sql_task | Object | |
|
hora de início
|
start_time | integer |
O momento em que essa execução foi iniciada em milissegundos de época (milissegundos desde 1/1/1970 UTC). Essa pode não ser a hora em que a tarefa de trabalho começa a ser executada, por exemplo, se o trabalho está agendado para ser executado em um novo cluster, esse é o momento em que a chamada de criação do cluster é emitida. |
|
status
|
status | JobsRunStatus | |
|
task_key
|
task_key | string |
Um nome exclusivo para a tarefa. Esse campo é usado para fazer referência a essa tarefa de outras tarefas. Esse campo é necessário e deve ser exclusivo em seu trabalho pai. Em Atualizar ou Redefinir, esse campo é usado para fazer referência às tarefas a serem atualizadas ou redefinidas. |
|
timeout_seconds
|
timeout_seconds | integer |
Um tempo limite opcional aplicado a cada execução desta tarefa de trabalho. Um valor de 0 significa que não há tempo limite. |
|
webhook_notifications
|
webhook_notifications | Object |
JobsRunConditionTask
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
esquerda
|
left | string |
O operando à esquerda da tarefa de condição. Pode ser um valor de cadeia de caracteres ou um estado de trabalho ou referência de parâmetro. |
|
Op
|
op | JobsConditionTaskOp | |
|
resultado
|
outcome | string |
O resultado da avaliação da expressão de condição. Preenchido se a tarefa foi concluída com êxito. Pode ser "true" ou "false" |
|
Certo
|
right | string |
O operando direito da tarefa de condição. Pode ser um valor de cadeia de caracteres ou um estado de trabalho ou referência de parâmetro. |
JobsTriggerType
JobsTriggerInfo
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
run_id
|
run_id | integer |
A ID de execução da execução da tarefa Executar Trabalho |
JobsRunOutput
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
clean_rooms_notebook_output
|
clean_rooms_notebook_output | Object | |
|
dashboard_output
|
dashboard_output | Object | |
|
dbt_output
|
dbt_output | Object | |
|
erro
|
error | string |
Uma mensagem de erro indicando por que uma tarefa falhou ou por que a saída não está disponível. A mensagem não foi estruturada e seu formato exato está sujeito a alterações. |
|
error_trace
|
error_trace | string |
Se houver um erro ao executar a execução, esse campo conterá todos os rastreamentos de pilha disponíveis. |
|
informação
|
info | string | |
|
logs
|
logs | string |
A saída de tarefas que gravam em fluxos padrão (stdout/stderr), como spark_jar_task, spark_python_task, python_wheel_task. Não há suporte para o notebook_task, pipeline_task ou spark_submit_task. O Azure Databricks restringe essa API para retornar os últimos 5 MB desses logs. |
|
logs_truncated
|
logs_truncated | boolean |
Se os logs são truncados. |
|
metadados
|
metadata | Object | |
|
notebook_output
|
notebook_output | JobsNotebookOutput | |
|
run_job_output
|
run_job_output | JobsRunJobOutput | |
|
sql_output
|
sql_output | Object |
JobsNotebookOutput
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
resultado
|
result | string |
O valor passado para dbutils.notebook.exit(). O Azure Databricks restringe essa API para retornar os primeiros 5 MB do valor. Para obter um resultado maior, seu trabalho pode armazenar os resultados em um serviço de armazenamento em nuvem. Esse campo estará ausente se dbutils.notebook.exit() nunca tiver sido chamado. |
|
truncado
|
truncated | boolean |
Se o resultado foi truncado ou não. |
JobsRunJobOutput
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
run_id
|
run_id | integer |
A ID de execução da execução do trabalho disparado |
JobsResolvedValues
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
condition_task
|
condition_task | JobsResolvedConditionTaskValues | |
|
dbt_task
|
dbt_task | JobsResolvedDbtTaskValues | |
|
notebook_task
|
notebook_task | JobsResolvedNotebookTaskValues | |
|
python_wheel_task
|
python_wheel_task | JobsResolvedPythonWheelTaskValues | |
|
run_job_task
|
run_job_task | JobsResolvedRunJobTaskValues | |
|
simulation_task
|
simulation_task | JobsResolvedParamPairValues | |
|
spark_jar_task
|
spark_jar_task | JobsResolvedStringParamsValues | |
|
spark_python_task
|
spark_python_task | JobsResolvedStringParamsValues | |
|
spark_submit_task
|
spark_submit_task | JobsResolvedStringParamsValues | |
|
sql_task
|
sql_task | JobsResolvedParamPairValues |
JobsResolvedConditionTaskValues
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
esquerda
|
left | string | |
|
Certo
|
right | string |
JobsResolvedDbtTaskValues
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
commands
|
commands | array of string |
JobsResolvedNotebookTaskValues
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
base_parameters
|
base_parameters | object |
JobsResolvedPythonWheelTaskValues
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
named_parameters
|
named_parameters | object | |
|
parameters
|
parameters | array of string |
JobsResolvedRunJobTaskValues
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
job_parameters
|
job_parameters | object | |
|
parameters
|
parameters | object |
JobsResolvedParamPairValues
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
parameters
|
parameters | object |
JobsResolvedStringParamsValues
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
parameters
|
parameters | array of string |