Compartilhar via


Azure Databricks

O Azure Databricks oferece uma plataforma unificada para gerenciamento, governança e análise de dados escalonáveis, combinando fluxos de trabalho simplificados com a capacidade de lidar com diversos tipos de dados com eficiência

Esse conector está disponível nos seguintes produtos e regiões:

Service Class Regions
Copilot Studio Premium Todas as regiões do Power Automate , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Power Apps Premium Todas as regiões do Power Apps , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Power Automate Premium Todas as regiões do Power Automate , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Contato
Nome Suporte do Databricks
URL https://help.databricks.com
Email eng-partner-eco-help@databricks.com
Metadados do conector
Publicador Databricks Inc.
Site https://www.databricks.com/
Política de privacidade https://www.databricks.com/legal/privacynotice
Categorias Dados

Conectar-se ao Azure Databricks por meio do Microsoft Power Platform

Esta página explica como se conectar ao Azure Databricks do Microsoft Power Platform adicionando o Azure Databricks como uma conexão de dados. Quando conectado, você pode usar seus dados do Azure Databricks das seguintes plataformas:

  • Power Apps: crie aplicativos que podem ler e gravar no Azure Databricks, preservando os controles de governança do Azure Databricks.
  • Power Automate: crie fluxos e adicione ações que permitem executar o SQL personalizado ou um trabalho existente e obter de volta os resultados.
  • Copilot Studio: crie agentes personalizados usando seus dados do Azure Databricks como uma fonte de conhecimento.

Antes de começar

Antes de se conectar ao Azure Databricks do Power Platform, você deve atender aos seguintes requisitos:

  • Você tem uma conta do Microsoft Entra ID (anteriormente Azure Active Directory).
  • Você tem uma licença premium do Power Apps.
  • Você tem uma conta do Azure Databricks.
  • Você tem acesso a um SQL Warehouse no Azure Databricks.

Opcional: conectar-se com redes virtuais do Azure

Se o workspace do Azure Databricks usar redes virtuais, haverá duas maneiras de se conectar:

  1. Integre o Power Platform com recursos dentro de sua rede virtual sem expô-los pela Internet pública. Para se conectar ao endpoint privado do workspace do Azure Databricks, siga estas etapas após configurar a conectividade privada com o Azure Databricks:

    Para obter mais informações sobre redes virtuais, consulte a visão geral do suporte à Rede Virtual.

  2. Habilite o acesso com a implantação híbrida, em que um link privado de front-end com um ponto de extremidade público é protegido por uma Lista de acesso de IP do Workspace. Para habilitar o acesso, faça o seguinte:

    1. Habilitar o acesso público no nível do workspace. Para obter mais detalhes, consulte Configurar listas de acesso IP para workspaces.
    2. Adicione o intervalo de IP do AzureConnectors ou um intervalo de IP específico do Power Platform com base na região do seu ambiente à sua lista de acesso ip do workspace.

Opcional: criar uma entidade de serviço do Microsoft Entra

Important

Se o Azure Databricks e o Power Platform estiverem em locatários diferentes, você deverá usar as Entidades de Serviço para autenticação.

Antes de se conectar, conclua as seguintes etapas para criar, configurar e atribuir um Principal de Serviço do Microsoft Entra à sua conta ou espaço de trabalho do Azure Databricks.

Etapa 1: Adicionar uma conexão do Azure Databricks ao Power Platform

Nota: Se você estiver usando o Copilot Studio, recomendamos criar a conexão do Databricks no Power Apps ou no Power Automate. Em seguida, ele pode ser usado no Copilot Studio.

Para adicionar uma conexão do Azure Databricks, faça o seguinte:

  1. No Power Apps ou no Power Automate, na barra lateral, clique em Conexões.

  2. Clique em + Nova conexão no canto superior esquerdo.

  3. Pesquise "Azure Databricks" usando a barra de pesquisa no canto superior direito.

  4. Selecione o bloco do Azure Databricks .

  5. Selecione o tipo de Autenticação no menu suspenso.

  6. Selecione seu método de autenticação e insira suas informações de autenticação.

    • Se a implantação do Power Platform e a conta do Azure Databricks estiverem no mesmo tenant do Microsoft Entra, você poderá usar a conexão OAuth. Insira as seguintes informações:

      • Para Nome do Host do Servidor, insira o nome do host do SQL Warehouse do Azure Databricks.
      • Para o caminho HTTP, insira o caminho HTTP do SQL Warehouse.
      • Clique em Criar.
      • Entre com sua ID do Microsoft Entra.
    • Conexão da entidade de serviço pode ser usada em qualquer cenário. Antes de se conectar, crie uma entidade de serviço do Microsoft Entra. Insira as seguintes informações:

      • Para ID do Cliente, insira a ID do principal do serviço.
      • Para o Segredo do Cliente, insira o segredo da entidade de serviço.
      • Para Locatário, insira o locatário da entidade de serviço.
      • Para Nome do Host, insira o nome do host do SQL Warehouse do Azure Databricks.
      • Para o caminho HTTP, insira o caminho HTTP do SQL Warehouse.
      • (Opcional) Você pode renomear ou compartilhar a conexão da entidade de serviço com os membros da equipe após a criação da conexão.
    • Para localizar os detalhes da conexão do SQL Warehouse do Azure Databricks, consulte Obter detalhes de conexão para um recurso de computação do Azure Databricks.

  7. Clique em Criar.

Etapa 2: Usar a conexão do Azure Databricks

Depois de criar uma conexão do Azure Databricks no Power Apps ou no Power Automate, você pode usar seus dados do Azure Databricks para criar aplicativos de tela do Power, fluxos do Power Automate e agentes do Copilot Studio.

Usar seus dados do Azure Databricks para criar aplicativos de tela do Power

Important

Você só poderá usar aplicativos de tela se estiver se conectando diretamente ao Azure Databricks no aplicativo. Você não pode usar tabelas virtuais.

Para adicionar seus dados do Azure Databricks ao seu aplicativo, faça o seguinte:

  1. Na barra de navegação mais à esquerda, clique em Criar.
  2. Clique em Iniciar com uma tela em branco e selecione o tamanho de tela desejado para criar um novo aplicativo de tela.
  3. Em seu aplicativo, clique em Adicionarconectores> de dados>do Azure Databricks. Selecione a conexão do Azure Databricks que você criou.
  4. Selecione um catálogo na barra lateral Escolher um conjunto de dados .
  5. Na barra lateral Escolher um dataset, selecione todas as tabelas às quais você deseja conectar seu aplicativo Canvas.
  6. Clique em Conectar.

Operações de dados no Power Apps:

O conector dá suporte a operações de criação, atualização e exclusão, mas apenas para tabelas que têm uma chave primária definida. Ao executar operações de criação, você deve sempre especificar a chave primária.

Nota: O Azure Databricks dá suporte a colunas de identidade geradas. Nesse caso, os valores de chave primária são gerados automaticamente no servidor durante a criação da linha e não podem ser especificados manualmente.

Usar seus dados do Azure Databricks para criar fluxos do Power Automate

A API de Execução de Instrução e a API de Trabalhos são expostas no Power Automate, permitindo que você escreva instruções SQL e execute trabalhos existentes. Para criar um fluxo do Power Automate usando o Azure Databricks como uma ação, faça o seguinte:

  1. Na barra de navegação mais à esquerda, clique em Criar.
  2. Crie um fluxo e adicione qualquer tipo de gatilho.
  3. No novo fluxo, clique + e pesquise "Databricks" para ver as ações disponíveis.

Para gravar o SQL, selecione uma das seguintes ações:

  • Execute uma instrução SQL: escreva e execute uma instrução SQL. Insira o seguinte:

    • Para Corpo/warehouse_id, insira o ID do armazém sobre o qual executar a instrução SQL.
    • Para Corpo/statement_id, insira o ID da instrução SQL a ser executada.
    • Para obter mais informações sobre os parâmetros avançados, consulte aqui.
  • Verificar o status e obter resultados: verifique o status de uma instrução SQL e colete os resultados. Insira o seguinte:

    • Para ID da Declaração, insira o ID retornado quando a declaração SQL foi executada.
    • Para obter mais informações sobre o parâmetro, consulte aqui.
  • Cancelar a execução de uma instrução: encerrar a execução de uma instrução SQL. Insira o seguinte:

    • Para o ID da instrução, insira o ID da instrução SQL a ser encerrada.
    • Para obter mais informações sobre o parâmetro, consulte aqui.
  • Obter resultado por índice de partes: obter resultados por índice de partes, que é adequado para grandes conjuntos de resultados. Insira o seguinte:

    • Para ID da Instrução SQL, insira o ID da instrução SQL cujos resultados você deseja obter.
    • Para o índice Chunk, insira o índice de partes de destino.
    • Para obter mais informações sobre os parâmetros, consulte aqui.

Para interagir com um Trabalho do Databricks existente, selecione uma das seguintes ações:

  • Trabalhos de Lista: recupera uma lista de trabalhos. Para obter mais informações , confira aqui.
  • Disparar uma nova execução de trabalho: executa um trabalho e retorna o run_id da execução disparada. Para obter mais informações , confira aqui.
  • Obter uma única execução de trabalho: retorna metadados sobre uma execução, incluindo o status da execução (por exemplo, RUNNING, SUCCESS, FAILED), hora de início e término, durações de execução, informações do cluster etc. Para obter mais informações , confira aqui.
  • Cancelar uma execução de trabalho: cancela uma execução de trabalho ou uma execução de tarefa. Para obter mais informações, consulte aqui.
  • Obtenha a saída para uma única execução de trabalho: recupera a saída e os metadados de uma única execução de tarefa. Para obter mais informações, consulte aqui.

Usar o Azure Databricks como uma fonte de conhecimento no Copilot Studio

Para adicionar seus dados do Azure Databricks como uma fonte de conhecimento a um agente do Copilot Studio, faça o seguinte:

  1. Na barra lateral, clique em Agente.
  2. Selecione um agente existente ou crie um novo agente clicando em + Novo agente.
    • Descreva o agente inserindo uma mensagem e clique em Criar.
    • Ou clique em Ignorar para especificar manualmente as informações do agente.
  3. Na guia Conhecimento , clique em + Conhecimento.
  4. Clique em Avançado.
  5. Selecione o Azure Databricks como a fonte de conhecimento.
  6. Insira o nome do catálogo em que os dados estão.
  7. Clique em Conectar.
  8. Selecione as tabelas que você deseja que seu agente use como fonte de conhecimento e clique em Adicionar.

Criar tabelas virtuais do Dataverse com seus dados do Azure Databricks

Você também pode criar tabelas virtuais do Dataverse com o conector do Azure Databricks. As tabelas virtuais, também conhecidas como entidades virtuais, integram dados de sistemas externos ao Microsoft Dataverse. Uma tabela virtual define uma tabela no Dataverse sem armazenar a tabela física no banco de dados dataverse. Para saber mais sobre tabelas virtuais, consulte Introdução às tabelas virtuais (entidades).

Observação

Embora as tabelas virtuais não consumam a capacidade de armazenamento do Dataverse, o Databricks recomenda que você use conexões diretas para melhorar o desempenho.

Você deve ter a função Personalizador do Sistema ou Administrador do Sistema. Para obter mais informações, consulte as funções de segurança do Power Platform.

Siga estas etapas para criar uma tabela virtual do Dataverse:

  1. No Power Apps, na barra lateral, clique em Tabelas.

  2. Clique em + Nova Tabela na barra de menus e selecione Criar uma tabela virtual.

  3. Selecione uma conexão existente do Azure Databricks ou crie uma nova conexão com o Azure Databricks. Para adicionar uma nova conexão, consulte a Etapa 1: Adicionar uma conexão do Azure Databricks ao Power Platform.

    O Databricks recomenda usar uma conexão da entidade de serviço para criar uma tabela virtual.

  4. Clique em Próximo.

  5. Selecione as tabelas a serem representadas como uma tabela virtual do Dataverse.

    • As tabelas virtuais do Dataverse exigem uma chave primária. Portanto, as exibições não podem ser tabelas virtuais, mas exibições materializadas podem.
  6. Clique em Próximo.

  7. Configure a tabela virtual atualizando os detalhes da tabela, se necessário.

  8. Clique em Próximo.

  9. Confirme os detalhes da fonte de dados e clique em Concluir.

  10. Use a tabela virtual do Dataverse no Power Apps, no Power Automate e no Copilot Studio.

Para obter uma lista de limitações conhecidas das tabelas virtuais do Dataverse, consulte limitações conhecidas e solução de problemas.

Realizar atualizações em lote

Se você precisar executar operações de criação, atualização ou exclusão em massa em resposta a entradas do Power Apps, o Databricks recomenda implementar um fluxo do Power Automate. Para realizar esta tarefa, faça o seguinte:

  1. Crie um aplicativo de tela usando sua conexão com o Azure Databricks no Power Apps.

  2. Crie um fluxo do Power Automate usando a conexão do Azure Databricks e defina o Power Apps como gatilho.

  3. No gatilho do Power Automate, adicione os campos de entrada que você deseja passar do Power Apps para o Power Automate.

  4. Crie um objeto de coleção no Power Apps para coletar todas as suas alterações.

  5. Adicione o fluxo do Power Automate ao aplicativo Canvas.

  6. Chame o fluxo do Power Automate pelo seu aplicativo de tela e itere pela coleção usando um comando ForAll.

    ForAll(collectionName, FlowName.Run(input field 1, input field 2, input field 3, …)
    

Gravações simultâneas

A simultaneidade em nível de linha reduz conflitos entre operações de gravação simultâneas detectando alterações no nível da linha e resolvendo automaticamente conflitos que ocorrem quando grava simultaneamente a atualização ou exclui linhas diferentes no mesmo arquivo de dados.

A simultaneidade de nível de linha está disponível no Databricks Runtime 14.2 ou superior. A simultaneidade de nível de linha tem suporte por padrão para os seguintes tipos de tabelas:

  • Tabelas com vetores de exclusão habilitados e sem particionamento
  • Tabelas com agrupamento líquido, a menos que os vetores de exclusão estejam desabilitados

Para habilitar vetores de exclusão, execute o seguinte comando SQL:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.enableDeletionVectors' = true);

Para obter mais informações sobre conflitos de gravação simultâneos no Azure Databricks, consulte níveis de isolamento e conflitos de gravação no Azure Databricks.

Adicionar o Azure Databricks a uma política de dados

Ao adicionar o Azure Databricks a uma política de dados corporativos, o Azure Databricks não pode compartilhar dados com conectores em outros grupos. Isso protege seus dados e impede que eles sejam compartilhados com aqueles que não devem ter acesso a eles. Para obter mais informações, consulte Gerenciar políticas de dados.

Para adicionar o conector do Azure Databricks a uma política de dados do Power Platform:

  1. Em qualquer aplicativo do Power Platform, clique na engrenagem de configurações no lado superior direito e selecione Centro de Administração.
  2. Na barra lateral, clique em Políticas>Políticas de Dados.
  3. Se você estiver usando o novo centro de administração, clique em Segurança>Privacidade de Dados>Política de Dados.
  4. Clique em + Nova Política ou selecione uma política existente.
  5. Se estiver criando uma nova política, insira um nome.
  6. Selecione um ambiente para adicionar à sua política e clique em + Adicionar à política acima.
  7. Clique em Próximo.
  8. Pesquise e selecione o conector do Azure Databricks .
  9. Clique Mover para Negócios e clique Avançar.
  10. Examine sua política e clique em Criar política.

Limitações

  • O conector do Power Platform não dá suporte a nuvens governamentais.

Limitações do Power App

As fórmulas do PowerFx a seguir calculam valores usando apenas os dados que foram recuperados localmente:

Categoria Formula
Função Tabela - GroupBy
-Diferente
Aggregation - CountRows
- StdevP
- StdevS

Criando uma conexão

O conector dá suporte aos seguintes tipos de autenticação:

Conexão OAuth Conexão OAuth Todas as regiões Não compartilhável
Conexão da Entidade de Serviço Conexão da Entidade de Serviço Todas as regiões Compartilhável
Padrão [PRETERIDO] Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores. Todas as regiões Não compartilhável

Conexão OAuth

ID de autenticação: oauth2-auth

Aplicável: todas as regiões

Conexão OAuth

Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.

Nome Tipo Description Obrigatório
Nome do host do servidor (exemplo: adb-3980263885549757139.2.azuredatabricks.net) cadeia Nome do servidor do workspace do Databricks Verdade
Caminho HTTP (exemplo: /sql/1.0/warehouses/a9c4e781bd29f315) cadeia Caminho HTTP do Databricks SQL Warehouse Verdade

Conexão da Entidade de Serviço

ID de autenticação: oAuthClientCredentials

Aplicável: todas as regiões

Conexão da Entidade de Serviço

Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs

Nome Tipo Description Obrigatório
ID do cliente cadeia Verdade
Segredo de Cliente secureString Verdade
Inquilino cadeia Verdade
Nome do host do servidor (exemplo: adb-3980263885549757139.2.azuredatabricks.net) cadeia Nome do servidor do workspace do Databricks Verdade
Caminho HTTP (exemplo: /sql/1.0/warehouses/a9c4e781bd29f315) cadeia Caminho HTTP do Databricks SQL Warehouse Verdade

Padrão [PRETERIDO]

Aplicável: todas as regiões

Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores.

Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.

Limitações

Nome Chamadas Período de renovação
Chamadas à API por conexão 100 60 segundos

Ações

Azure Databricks Genie

Consultar espaços do Genie para obter insights de seus dados.

Cancelar a execução da instrução

Solicita que uma instrução em execução seja cancelada. Os chamadores devem sondar o status para ver o estado do terminal.

Cancelar uma execução

Cancela uma execução de trabalho ou uma execução de tarefa. A execução é cancelada de forma assíncrona, portanto, ela ainda pode estar em execução quando essa solicitação for concluída.

Disparar uma nova execução de trabalho

Execute um trabalho e retorne o run_id da execução disparada.

Executar uma instrução SQL

Execute uma instrução SQL e, opcionalmente, aguarde seus resultados por um tempo especificado.

Listar trabalhos

Recupera uma lista de trabalhos.

Obter a saída para uma única execução

Recupere a saída e os metadados de uma única execução de tarefa. Quando uma tarefa de notebook retorna um valor por meio da chamada dbutils.notebook.exit(), você pode usar esse ponto de extremidade para recuperar esse valor. O Azure Databricks restringe essa API a retornar os primeiros 5 MB da saída. Para retornar um resultado maior, você pode armazenar resultados de trabalho em um serviço de armazenamento em nuvem. Esse ponto de extremidade valida que o parâmetro run_id é válido e retorna um código de status HTTP 400 se o parâmetro run_id for inválido. As execuções são removidas automaticamente após 60 dias. Se você quiser referenciá-los além de 60 dias, salve os resultados de execução antigos antes que eles expirem.

Obter resultado por índice de partes

Depois que a execução da instrução for BEM-sucedida, essa solicitação poderá ser usada para buscar qualquer parte por índice.

Obter uma única execução de trabalho

Recupera os metadados de uma execução. Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para uma única execução retornará todas as propriedades para essa execução e os primeiros 100 elementos de propriedades de matriz (tarefas, job_clusters, job_parameters e repair_history). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se as propriedades de matriz tiverem mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. Matrizes sem resultados adicionais estarão vazias em páginas posteriores.

Verificar o status e obter resultados

Obter o status, o manifesto e os resultados da instrução

Azure Databricks Genie

Consultar espaços do Genie para obter insights de seus dados.

Parâmetros

Nome Chave Obrigatório Tipo Description
ID de espaço do Genie
genie_space_id True string

ID de espaço do Genie

Cancelar a execução da instrução

Solicita que uma instrução em execução seja cancelada. Os chamadores devem sondar o status para ver o estado do terminal.

Parâmetros

Nome Chave Obrigatório Tipo Description
ID da instrução
statement_id True string

ID da instrução

Cancelar uma execução

Cancela uma execução de trabalho ou uma execução de tarefa. A execução é cancelada de forma assíncrona, portanto, ela ainda pode estar em execução quando essa solicitação for concluída.

Parâmetros

Nome Chave Obrigatório Tipo Description
run_id
run_id True integer

Este campo é necessário.

Disparar uma nova execução de trabalho

Execute um trabalho e retorne o run_id da execução disparada.

Parâmetros

Nome Chave Obrigatório Tipo Description
idempotency_token
idempotency_token string

Um token opcional para garantir a idempotency de solicitações de execução de trabalho. Se já existir uma execução com o token fornecido, a solicitação não criará uma nova execução, mas retornará a ID da execução existente. Se uma execução com o token fornecido for excluída, um erro será retornado. Se você especificar o token de idempotency, após a falha, poderá tentar novamente até que a solicitação seja bem-sucedida. O Azure Databricks garante que exatamente uma execução seja iniciada com esse token de idempotency. Esse token deve ter no máximo 64 caracteres. Para obter mais informações, consulte Como garantir a idempotência para trabalhos.

job_id
job_id True integer

A ID do trabalho a ser executado

job_parameters
job_parameters object

Parâmetros de nível de trabalho usados na execução. por exemplo, "param": "overriding_val"

somente
only array of string

Uma lista de chaves de tarefa a serem executadas dentro do trabalho. Se esse campo não for fornecido, todas as tarefas no trabalho serão executadas.

performance_target
performance_target string
full_refresh
full_refresh boolean

Se for true, disparará uma atualização completa na tabela dinâmica delta.

enabled
enabled True boolean

Se for true, habilite o enfileiramento para o trabalho. Esse é um campo obrigatório.

Retornos

Executar uma instrução SQL

Execute uma instrução SQL e, opcionalmente, aguarde seus resultados por um tempo especificado.

Parâmetros

Nome Chave Obrigatório Tipo Description
warehouse_id
warehouse_id True string

ID do warehouse de destino

demonstrativo
statement True string

A instrução SQL a ser executada. Opcionalmente, a instrução pode ser parametrizada, consulte parâmetros

nome
name True string

Nome do marcador de parâmetro

tipo
type string

Tipo de dados de parâmetro

value
value string

Valor do parâmetro

catálogo
catalog string

Catálogo padrão para execução

esquema
schema string

Esquema padrão para execução

disposição
disposition string

Modo de busca de resultados

format
format string

Formato do conjunto de resultados

on_wait_timeout
on_wait_timeout string

Ação no tempo limite

wait_timeout
wait_timeout string

Tempo limite de espera do resultado

byte_limit
byte_limit integer

Limite de bytes de resultado

row_limit
row_limit integer

Limite de linha de resultado

Retornos

Resposta de execução de instrução

Listar trabalhos

Recupera uma lista de trabalhos.

Parâmetros

Nome Chave Obrigatório Tipo Description
Limit
limit integer

O número de trabalhos a serem retornados. Esse valor deve ser maior que 0 e menor ou igual a 100. O valor padrão é 20.

Expandir Tarefas
expand_tasks boolean

Se deseja incluir detalhes da tarefa e do cluster na resposta. Observe que somente os primeiros 100 elementos serão mostrados. Use :method:jobs/get para paginar em todas as tarefas e clusters.

Nome da Tarefa
name string

Um filtro na lista com base no nome exato do trabalho (que não diferencia maiúsculas de minúsculas).

Token de Página
page_token string

Use next_page_token ou prev_page_token retornados da solicitação anterior para listar a próxima página de trabalhos ou anterior, respectivamente.

Retornos

Obter a saída para uma única execução

Recupere a saída e os metadados de uma única execução de tarefa. Quando uma tarefa de notebook retorna um valor por meio da chamada dbutils.notebook.exit(), você pode usar esse ponto de extremidade para recuperar esse valor. O Azure Databricks restringe essa API a retornar os primeiros 5 MB da saída. Para retornar um resultado maior, você pode armazenar resultados de trabalho em um serviço de armazenamento em nuvem. Esse ponto de extremidade valida que o parâmetro run_id é válido e retorna um código de status HTTP 400 se o parâmetro run_id for inválido. As execuções são removidas automaticamente após 60 dias. Se você quiser referenciá-los além de 60 dias, salve os resultados de execução antigos antes que eles expirem.

Parâmetros

Nome Chave Obrigatório Tipo Description
Executar ID
run_id True integer

O identificador canônico para a execução.

Retornos

Obter resultado por índice de partes

Depois que a execução da instrução for BEM-sucedida, essa solicitação poderá ser usada para buscar qualquer parte por índice.

Parâmetros

Nome Chave Obrigatório Tipo Description
ID da instrução
statement_id True string

ID da instrução

Índice de partes
chunk_index True string

Índice de partes

Retornos

Obter uma única execução de trabalho

Recupera os metadados de uma execução. Grandes matrizes nos resultados serão paginadas quando excederem 100 elementos. Uma solicitação para uma única execução retornará todas as propriedades para essa execução e os primeiros 100 elementos de propriedades de matriz (tarefas, job_clusters, job_parameters e repair_history). Use o campo next_page_token para verificar mais resultados e passar seu valor como o page_token em solicitações subsequentes. Se as propriedades de matriz tiverem mais de 100 elementos, resultados adicionais serão retornados em solicitações subsequentes. Matrizes sem resultados adicionais estarão vazias em páginas posteriores.

Parâmetros

Nome Chave Obrigatório Tipo Description
Executar ID
run_id True integer

O identificador canônico da execução para a qual recuperar os metadados. Este campo é necessário.

Incluir Histórico
include_history boolean

Se deseja incluir o histórico de reparos na resposta.

Incluir valores resolvidos
include_resolved_values boolean

Se deve incluir valores de parâmetro resolvidos na resposta.

Token de Página
page_token string

Use next_page_token retornado da resposta GetRun anterior para solicitar a próxima página das propriedades da matriz da execução.

Retornos

Corpo
JobsRun

Verificar o status e obter resultados

Obter o status, o manifesto e os resultados da instrução

Parâmetros

Nome Chave Obrigatório Tipo Description
ID da instrução
statement_id True string

ID da instrução

Retornos

Resposta de execução de instrução

Definições

Object

SqlBaseChunkInfo

Metadados para uma parte do conjunto de resultados

Nome Caminho Tipo Description
byte_count
byte_count integer

Número de bytes na parte de resultado

chunk_index
chunk_index integer

Posição na sequência de partes do conjunto de resultados

row_count
row_count integer

Número de linhas na parte de resultado

row_offset
row_offset integer

Deslocamento de linha inicial no conjunto de resultados

SqlColumnInfo

Nome Caminho Tipo Description
nome
name string

Nome da coluna

posição
position integer

Posição da coluna (baseada em 0)

type_interval_type
type_interval_type string

Formato de tipo de intervalo

type_name
type_name SqlColumnInfoTypeName

O nome do tipo de dados base. Isso não inclui detalhes para tipos complexos, como STRUCT, MAP ou ARRAY.

type_precision
type_precision integer

Número de dígitos para o tipo DECIMAL

type_scale
type_scale integer

Número de casas decimais para tipo DECIMAL

type_text
type_text string

Especificação completa do tipo SQL

SqlColumnInfoTypeName

O nome do tipo de dados base. Isso não inclui detalhes para tipos complexos, como STRUCT, MAP ou ARRAY.

O nome do tipo de dados base. Isso não inclui detalhes para tipos complexos, como STRUCT, MAP ou ARRAY.

SqlStatementResponse

Resposta de execução de instrução

Nome Caminho Tipo Description
manifesto
manifest SqlResultManifest

Esquema e metadados do conjunto de resultados

resultado
result SqlResultData
statement_id
statement_id string

ID da instrução

status
status SqlStatementStatus

Status de execução da instrução

SqlResultManifest

Esquema e metadados do conjunto de resultados

Nome Caminho Tipo Description
Pedaços
chunks array of SqlBaseChunkInfo

Metadados da parte de resultado

format
format string
esquema
schema SqlResultSchema

Definições de coluna do conjunto de resultados

total_byte_count
total_byte_count integer

Total de bytes no conjunto de resultados

total_chunk_count
total_chunk_count integer

Número total de partes

total_row_count
total_row_count integer

Número total de linhas

truncado
truncated boolean

Status de truncamento de resultados

SqlStatementStatus

Status de execução da instrução

Nome Caminho Tipo Description
erro
error SqlServiceError
estado
state SqlStatementState

Estado de execução da instrução

SqlStatementState

Estado de execução da instrução

Estado de execução da instrução

SqlServiceError

Nome Caminho Tipo Description
error_code
error_code string
mensagem
message string

Mensagem de erro

SqlResultSchema

Definições de coluna do conjunto de resultados

Nome Caminho Tipo Description
column_count
column_count integer
columns
columns array of SqlColumnInfo

SqlResultData

Nome Caminho Tipo Description
byte_count
byte_count integer

Bytes na parte de resultado

chunk_index
chunk_index integer

Posição da parte

data_array
data_array SqlJsonArray

Matriz de matrizes com valores de cadeia de caracteres

external_links
external_links array of SqlExternalLink
next_chunk_index
next_chunk_index integer

Índice da próxima parte

next_chunk_internal_link
next_chunk_internal_link string

Próximo link da parte

row_count
row_count integer

Linhas em partes

row_offset
row_offset integer

Deslocamento de linha inicial

SqlJsonArray

Matriz de matrizes com valores de cadeia de caracteres

Nome Caminho Tipo Description
Itens
array of
Nome Caminho Tipo Description
byte_count
byte_count integer

Bytes em partes

chunk_index
chunk_index integer

Posição da parte

expiração
expiration date-time

Tempo de expiração do link

external_link
external_link string
http_headers
http_headers object

Cabeçalhos HTTP necessários

next_chunk_index
next_chunk_index integer

Índice da próxima parte

next_chunk_internal_link
next_chunk_internal_link string

Próximo link da parte

row_count
row_count integer

Linhas em partes

row_offset
row_offset integer

Deslocamento de linha inicial

JobsRunNowResponse

Nome Caminho Tipo Description
run_id
run_id integer

A ID global exclusiva da execução recém-disparada.

JobsPerformanceTarget

JobsPipelineParams

Nome Caminho Tipo Description
full_refresh
full_refresh boolean

Se for true, disparará uma atualização completa na tabela dinâmica delta.

JobsQueueSettings

Nome Caminho Tipo Description
enabled
enabled boolean

Se for true, habilite o enfileiramento para o trabalho. Esse é um campo obrigatório.

JobsListJobsResponse

Nome Caminho Tipo Description
jobs
jobs array of JobsBaseJob

A lista de trabalhos. Incluído apenas na resposta se houver trabalhos a serem listados.

next_page_token
next_page_token string

Um token que pode ser usado para listar a próxima página de trabalhos (se aplicável).

prev_page_token
prev_page_token string

Um token que pode ser usado para listar a página anterior de trabalhos (se aplicável).

JobsBaseJob

Nome Caminho Tipo Description
created_time
created_time integer

O momento em que esse trabalho foi criado em milissegundos de época (milissegundos desde 1/1/1970 UTC).

creator_user_name
creator_user_name string

O nome de usuário do criador. Esse campo não será incluído na resposta se o usuário já tiver sido excluído.

effective_budget_policy_id
effective_budget_policy_id uuid

A ID da política de orçamento usada por esse trabalho para fins de atribuição de custo. Isso pode ser definido por meio (em ordem de precedência): 1. Administradores de orçamento por meio da conta ou do console de workspace 2. A interface do usuário de trabalhos na página de detalhes do trabalho e na API de Trabalhos usando budget_policy_id 3. Padrão inferido com base em políticas de orçamento acessíveis do run_as identidade na criação ou modificação do trabalho.

has_more
has_more boolean

Indica se o trabalho tem mais propriedades de matriz (tarefas, job_clusters) que não são mostradas. Eles podem ser acessados por meio do ponto de extremidade :method:jobs/get. Ela só é relevante para a API 2.2 :method:jobs/list requests with expand_tasks=true.

job_id
job_id integer

O identificador canônico para este trabalho.

configurações
settings JobsJobSettings
trigger_state
trigger_state JobsTriggerStateProto

JobsJobSettings

Nome Caminho Tipo Description
budget_policy_id
budget_policy_id uuid

A ID da política de orçamento especificada pelo usuário a ser usada para este trabalho. Se não for especificado, uma política de orçamento padrão poderá ser aplicada ao criar ou modificar o trabalho. Consulte effective_budget_policy_id para a política de orçamento usada por essa carga de trabalho.

contínuo
continuous JobsContinuous
implantação
deployment JobsJobDeployment
descrição
description string

Uma descrição opcional para a vaga. O comprimento máximo é de 27700 caracteres na codificação UTF-8.

edit_mode
edit_mode JobsJobEditMode
email_notifications
email_notifications JobsJobEmailNotifications
environments
environments array of JobsJobEnvironment

Uma lista de especificações de ambiente de execução de tarefa que podem ser referenciadas por tarefas sem servidor deste trabalho. É necessário que um ambiente esteja presente para tarefas sem servidor. Para tarefas de notebook sem servidor, o ambiente é acessível no painel de ambiente do notebook. Para outras tarefas sem servidor, o ambiente de tarefa deve ser especificado usando environment_key nas configurações da tarefa.

git_source
git_source JobsGitSource
Saúde
health JobsJobsHealthRules
job_clusters
job_clusters array of JobsJobCluster

Uma lista de especificações de cluster de trabalho que podem ser compartilhadas e reutilizados por tarefas deste trabalho. Bibliotecas não podem ser declaradas em um cluster de trabalho compartilhado. Você deve declarar bibliotecas dependentes nas configurações de tarefa.

max_concurrent_runs
max_concurrent_runs integer

Um número máximo opcional permitido de vezes que o trabalho pode ser executado simultaneamente. Defina esse valor se você quiser ser capaz de fazer várias execuções do mesmo trabalho simultaneamente. Isso é útil, por exemplo, se você disparar seu trabalho em um agendamento frequente e quiser permitir que execuções consecutivas se sobreponham entre si ou se você quiser disparar várias execuções que diferem por seus parâmetros de entrada. Essa configuração afeta apenas novas execuções. Por exemplo, suponha que a simultaneidade do trabalho seja 4 e que haja 4 execuções ativas simultâneas. Em seguida, definir a simultaneidade como 3 não eliminará nenhuma das execuções ativas. No entanto, a partir daí, novas execuções são ignoradas, a menos que haja menos de 3 execuções ativas. Esse valor não pode exceder 1000. Definir esse valor como 0 faz com que todas as novas execuções sejam ignoradas.

nome
name string

Um nome opcional para o trabalho. O comprimento máximo é de 4.096 bytes na codificação UTF-8.

notification_settings
notification_settings JobsJobNotificationSettings
parameters
parameters array of JobsJobParameterDefinition

Definições de parâmetro no nível do trabalho

performance_target
performance_target JobsPerformanceTarget
fila
queue JobsQueueSettings
run_as
run_as JobsJobRunAs
Cronograma
schedule JobsCronSchedule
tags
tags object

Um mapa de etiquetas associadas ao trabalho específico. Essas tags são encaminhadas para o cluster como rótulos de clusters de trabalho e estão sujeitas às mesmas limitações que os rótulos de cluster. No máximo 25 etiquetas podem ser adicionadas à tarefa.

tarefas
tasks array of JobsTask

Uma lista de especificações de tarefa a serem executadas por este trabalho. Ele dá suporte a até 1000 elementos em pontos de extremidade de gravação (:method:jobs/create, :method:jobs/reset, :method:jobs/update, :method:jobs/submit). Os pontos de extremidade de leitura retornam apenas 100 tarefas. Se mais de 100 tarefas estiverem disponíveis, você poderá paginar por meio delas usando :method:jobs/get. Use o campo next_page_token na raiz do objeto para determinar se há mais resultados disponíveis.

timeout_seconds
timeout_seconds integer

Um tempo limite opcional aplicado a cada execução dessa tarefa. Um valor de 0 significa que não há tempo limite.

disparador
trigger JobsTriggerSettings
webhook_notifications
webhook_notifications JobsWebhookNotifications

JobsContinuous

Nome Caminho Tipo Description
pause_status
pause_status JobsPauseStatus

JobsPauseStatus

JobsJobDeployment

Nome Caminho Tipo Description
variante
kind JobsJobDeploymentKind
metadata_file_path
metadata_file_path string

Caminho do arquivo que contém metadados de implantação.

JobsJobDeploymentKind

JobsJobEditMode

JobsJobEmailNotifications

Nome Caminho Tipo Description
on_duration_warning_threshold_exceeded
on_duration_warning_threshold_exceeded array of string

Uma lista de endereços de email a serem notificados quando a duração de uma execução exceder o limite especificado para a métrica RUN_DURATION_SECONDS no campo de integridade. Se nenhuma regra para a métrica RUN_DURATION_SECONDS for especificada no campo de integridade do trabalho, as notificações não serão enviadas.

on_failure
on_failure array of string

Uma lista de endereços de email a serem notificados quando uma execução for concluída sem êxito. Uma execução é considerada como tendo sido concluída sem êxito se terminar com um INTERNAL_ERROR life_cycle_state ou um FAILED ou TIMED_OUT result_state. Se isso não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas.

on_start
on_start array of string

Uma lista de endereços de email a serem notificados quando uma execução começar. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas.

on_streaming_backlog_exceeded
on_streaming_backlog_exceeded array of string

Uma lista de endereços de email a serem notificados quando os limites de backlog de streaming forem excedidos para qualquer fluxo. Os limites de backlog de streaming podem ser definidos no campo de integridade usando as seguintes métricas: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS ou STREAMING_BACKLOG_FILES. O alerta é baseado na média de 10 minutos dessas métricas. Se o problema persistir, as notificações serão ressentidas a cada 30 minutos.

on_success
on_success array of string

Uma lista de endereços de email a serem notificados quando uma execução for concluída com êxito. Considera-se que uma execução foi concluída com êxito se terminar com uma life_cycle_state TERMINADA e uma result_state SUCCESS. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas.

JobsJobEnvironment

Nome Caminho Tipo Description
environment_key
environment_key string

A chave de um ambiente. Ele tem que ser exclusivo dentro de um trabalho.

Especificação
spec ComputeEnvironment

ComputeEnvironment

Nome Caminho Tipo Description
dependências
dependencies array of string

Lista de dependências pip, conforme suportado pela versão do pip nesse ambiente. Cada dependência é uma linha de arquivo de requisitos pip válida por https://pip.pypa.io/en/stable/reference/requirements-file-format/. As dependências permitidas incluem um especificador de requisitos, uma URL de arquivo morto, um caminho de projeto local (como WSFS ou volumes UC no Azure Databricks) ou uma URL de projeto vcs.

environment_version
environment_version string

Obrigatório Versão do ambiente usada pelo ambiente. Cada versão vem com uma versão específica do Python e um conjunto de pacotes do Python. A versão é uma cadeia de caracteres, que consiste em um inteiro. Consulte https://learn.microsoft.com/azure/databricks/release-notes/serverless/#serverless-environment-versions.

JobsGitSource

Nome Caminho Tipo Description
git_branch
git_branch string

Nome do branch a ser verificado e usado por este trabalho. Esse campo não pode ser especificado em conjunto com git_tag ou git_commit.

git_commit
git_commit string

Confirme-se para ser verificado e usado por este trabalho. Esse campo não pode ser especificado em conjunto com git_branch ou git_tag.

git_provider
git_provider JobsGitProvider
git_snapshot
git_snapshot JobsGitSnapshot
git_tag
git_tag string

Nome da marca a ser verificada e usada por este trabalho. Esse campo não pode ser especificado em conjunto com git_branch ou git_commit.

git_url
git_url string

URL do repositório a ser clonado por esse trabalho.

JobsGitProvider

JobsGitSnapshot

Nome Caminho Tipo Description
used_commit
used_commit string

Confirmar que foi usado para executar a execução. Se git_branch tiver sido especificado, isso apontará para o HEAD do branch no momento da execução; se git_tag foi especificado, isso aponta para a confirmação para a qual a marca aponta.

JobsJobsHealthRules

Nome Caminho Tipo Description
regras
rules array of JobsJobsHealthRule

JobsJobsHealthRule

Nome Caminho Tipo Description
métrica
metric JobsJobsHealthMetric
Op
op JobsJobsHealthOperator
value
value integer

Especifica o valor limite que a métrica de integridade deve obedecer para atender à regra de integridade.

JobsJobsHealthMetric

JobsJobsHealthOperator

JobsJobCluster

Nome Caminho Tipo Description
job_cluster_key
job_cluster_key string

Um nome exclusivo para o cluster de trabalho. Esse campo é necessário e deve ser exclusivo dentro do trabalho. JobTaskSettings pode se referir a esse campo para determinar qual cluster será iniciado para a execução da tarefa.

new_cluster
new_cluster ComputeClusterSpec

ComputeClusterSpec

Nome Caminho Tipo Description
apply_policy_default_values
apply_policy_default_values boolean

Quando definido como verdadeiro, valores fixos e padrão da política serão usados para campos que são omitidos. Quando definido como false, somente valores fixos da política serão aplicados.

dimensionamento automático
autoscale ComputeAutoScale
autotermination_minutes
autotermination_minutes integer

Encerra automaticamente o cluster depois que ele fica inativo por esse tempo em minutos. Se não for definido, esse cluster não será encerrado automaticamente. Se especificado, o limite deve estar entre 10 e 10000 minutos. Os usuários também podem definir esse valor como 0 para desabilitar explicitamente a terminação automática.

azure_attributes
azure_attributes ComputeAzureAttributes
cluster_log_conf
cluster_log_conf ComputeClusterLogConf
nome_do_cluster
cluster_name string

Nome do cluster solicitado pelo usuário. Isso não precisa ser exclusivo. Se não for especificado na criação, o nome do cluster será uma cadeia de caracteres vazia. Para clusters de trabalho, o nome do cluster é definido automaticamente com base nas IDs de execução do trabalho e do trabalho.

custom_tags
custom_tags object

Tags adicionais para recursos de cluster. O Azure Databricks marcará todos os recursos de cluster (por exemplo, instâncias do AWS e volumes de EBS) com essas marcas além de default_tags. Observações: – Atualmente, o Azure Databricks permite no máximo 45 marcas personalizadas – os clusters só poderão reutilizar recursos de nuvem se as marcas dos recursos forem um subconjunto das marcas de cluster

data_security_mode
data_security_mode ComputeDataSecurityMode
docker_image
docker_image ComputeDockerImage
driver_instance_pool_id
driver_instance_pool_id string

A ID opcional do pool de instâncias ao qual o cluster pertence. O cluster de pools usará o pool de instâncias com id (instance_pool_id) caso o pool de driver não tenha sido atribuído.

driver_node_type_id
driver_node_type_id string

O tipo de nó do driver do Spark. Observe que esse campo é opcional; se não definido, o tipo de nó de driver será definido como o mesmo valor que node_type_id definido acima. Esse campo, juntamente com node_type_id, não deverá ser definido se virtual_cluster_size estiver definido. Se driver_node_type_id, node_type_id e virtual_cluster_size forem especificados, driver_node_type_id e node_type_id terá precedência.

enable_elastic_disk
enable_elastic_disk boolean

Dimensionamento automático do Armazenamento Local: quando habilitado, esse cluster adquirirá dinamicamente espaço em disco adicional quando seus trabalhos do Spark estiverem com pouco espaço em disco. Esse recurso requer permissões específicas do AWS para funcionar corretamente – consulte o Guia do Usuário para obter mais detalhes.

enable_local_disk_encryption
enable_local_disk_encryption boolean

Se o LUKS deve ser habilitado nos discos locais das VMs de cluster

init_scripts
init_scripts array of ComputeInitScriptInfo

A configuração usada para armazenar scripts de inicialização. Qualquer número de destinos pode ser especificado. Os scripts são executados em sequência na ordem fornecida. Se cluster_log_conf for especificado, os logs de script de inicialização serão enviados para <destino>/<cluster-ID>/init_scripts.

instance_pool_id
instance_pool_id string

A ID opcional do pool de instâncias ao qual o cluster pertence.

is_single_node
is_single_node boolean

Esse campo só pode ser usado quando tipo = CLASSIC_PREVIEW. Quando definido como true, o Azure Databricks definirá automaticamente custom_tags, spark_conf e num_workers relacionados a nó único

variante
kind ComputeKind
node_type_id
node_type_id string

Esse campo codifica, por meio de um único valor, os recursos disponíveis para cada um dos nós do Spark neste cluster. Por exemplo, os nós do Spark podem ser provisionados e otimizados para cargas de trabalho intensivas de computação e memória. Recupere uma lista de tipos de nós disponíveis usando a chamada à API :method:clusters/listNodeType.

num_workers
num_workers integer

Número de nós de trabalho que esse cluster deve ter. Um cluster tem um Driver Spark e executores de num_workers para um total de num_workers + 1 nós Spark. Observação: ao ler as propriedades de um cluster, esse campo reflete o número desejado de trabalhadores em vez do número atual real de trabalhos. Por exemplo, se um cluster for redimensionado de 5 a 10 trabalhadores, esse campo será imediatamente atualizado para refletir o tamanho de destino de 10 trabalhadores, enquanto os trabalhadores listados em spark_info aumentarão gradualmente de 5 para 10 à medida que os novos nós forem provisionados.

policy_id
policy_id string

A ID da política de cluster usada para criar o cluster, se aplicável.

runtime_engine
runtime_engine ComputeRuntimeEngine
single_user_name
single_user_name string

Nome de usuário único se data_security_mode estiver SINGLE_USER

spark_conf
spark_conf object

Um objeto que contém um conjunto opcional de pares chave-valor de configuração do Spark especificado pelo usuário. Os usuários também podem passar uma cadeia de caracteres de opções de JVM extras para o driver e os executores por meio de spark.driver.extraJavaOptions e spark.executor.extraJavaOptions, respectivamente.

spark_env_vars
spark_env_vars object

Um objeto que contém um conjunto opcional de pares chave-valor de variáveis de ambiente especificados pelo usuário. Observe que o par chave-valor do formulário (X,Y) será exportado como está (ou seja, exportar X='Y') ao iniciar o driver e os trabalhadores. Para especificar um conjunto adicional de SPARK_DAEMON_JAVA_OPTS, recomendamos acrescentá-los a $SPARK_DAEMON_JAVA_OPTS, conforme mostrado no exemplo abaixo. Isso garante que todas as variáveis ambientais gerenciadas do databricks padrão também sejam incluídas. Exemplo de variáveis de ambiente do Spark: {"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} ou {"SPARK_DAEMON_JAVA_OPTS": "$SPARK_DAEMON_JAVA_OPTS -Dspark.shuffle.service.enabled=true"}

spark_version
spark_version string

A versão spark do cluster, por exemplo, 3.3.x-scala2.11. Uma lista das versões disponíveis do Spark pode ser recuperada usando a chamada à API :method:clusters/sparkVersions.

ssh_public_keys
ssh_public_keys array of string

Conteúdo da chave pública SSH que será adicionado a cada nó do Spark neste cluster. As chaves privadas correspondentes podem ser usadas para fazer logon com o nome de usuário ubuntu na porta 2200. Até 10 chaves podem ser especificadas.

use_ml_runtime
use_ml_runtime boolean

Esse campo só pode ser usado quando tipo = CLASSIC_PREVIEW. effective_spark_version é determinado por spark_version (versão DBR), esse campo use_ml_runtime e se node_type_id é nó gpu ou não.

workload_type
workload_type ComputeWorkloadType

ComputeAutoScale

Nome Caminho Tipo Description
max_workers
max_workers integer

O número máximo de trabalhos para os quais o cluster pode escalar verticalmente quando sobrecarregado. Observe que max_workers deve ser estritamente maior que min_workers.

min_workers
min_workers integer

O número mínimo de trabalhos para os quais o cluster pode reduzir verticalmente quando subutilizado. É também o número inicial de trabalhos que o cluster terá após a criação.

ComputeAzureAttributes

Nome Caminho Tipo Description
disponibilidade
availability ComputeAzureAvailability
first_on_demand
first_on_demand integer

Os primeiros nós first_on_demand do cluster serão colocados em instâncias sob demanda. Esse valor deve ser maior que 0, para garantir que o nó do driver de cluster seja colocado em uma instância sob demanda. Se esse valor for maior ou igual ao tamanho atual do cluster, todos os nós serão colocados em instâncias sob demanda. Se esse valor for menor que o tamanho do cluster atual, first_on_demand nós serão colocados em instâncias sob demanda e o restante será colocado em instâncias de disponibilidade. Observe que esse valor não afeta o tamanho do cluster e não pode ser modificado ao longo do tempo de vida de um cluster.

log_analytics_info
log_analytics_info ComputeLogAnalyticsInfo
spot_bid_max_price
spot_bid_max_price double

O preço máximo da oferta a ser usado para instâncias spot do Azure. O preço máximo da oferta não pode ser maior do que o preço sob demanda da instância. Se não for especificado, o valor padrão será -1, que especifica que a instância não pode ser removida com base no preço e apenas com base na disponibilidade. Além disso, o valor deve ser > 0 ou -1.

ComputeAzureAvailability

ComputeLogAnalyticsInfo

Nome Caminho Tipo Description
log_analytics_primary_key
log_analytics_primary_key string
log_analytics_workspace_id
log_analytics_workspace_id string

ComputeClusterLogConf

Nome Caminho Tipo Description
dbfs
dbfs ComputeDbfsStorageInfo
volumes
volumes ComputeVolumesStorageInfo

ComputeDbfsStorageInfo

Nome Caminho Tipo Description
destino
destination string

destino de dbfs, por exemplo, dbfs:/my/path

ComputeVolumesStorageInfo

Nome Caminho Tipo Description
destino
destination string

Destino de volumes uc, por exemplo, /Volumes/catalog/schema/vol1/init-scripts/setup-datadog.sh ou dbfs:/Volumes/catalog/schema/vol1/init-scripts/setup-datadog.sh

ComputeDataSecurityMode

ComputeDockerImage

Nome Caminho Tipo Description
basic_auth
basic_auth ComputeDockerBasicAuth
url
url string

URL da imagem do Docker.

ComputeDockerBasicAuth

Nome Caminho Tipo Description
senha
password string

Senha do usuário

nome de usuário
username string

Nome do utilizador

ComputeInitScriptInfo

Nome Caminho Tipo Description
abfss
abfss ComputeAdlsgen2Info
arquivo
file ComputeLocalFileInfo
Gcs
gcs ComputeGcsStorageInfo
volumes
volumes ComputeVolumesStorageInfo
espaço de trabalho
workspace ComputeWorkspaceStorageInfo

ComputeAdlsgen2Info

Nome Caminho Tipo Description
destino
destination string

abfss destination, por exemplo, abfss:// container-name<@>storage-account-name.dfs.core.windows.net/<> directory-name<>.

ComputeLocalFileInfo

Nome Caminho Tipo Description
destino
destination string

destino do arquivo local, por exemplo, arquivo:/my/local/file.sh

ComputeGcsStorageInfo

Nome Caminho Tipo Description
destino
destination string

Destino/URI do GCS, por exemplo, gs://my-bucket/some-prefix

ComputeWorkspaceStorageInfo

Nome Caminho Tipo Description
destino
destination string

destino do wsfs, por exemplo, workspace:/cluster-init-scripts/setup-datadog.sh

ComputeKind

ComputeRuntimeEngine

ComputeWorkloadType

Nome Caminho Tipo Description
clients
clients ComputeClientsTypes

ComputeClientsTypes

Nome Caminho Tipo Description
jobs
jobs boolean

Com os trabalhos definidos, o cluster pode ser usado para trabalhos

Notebooks
notebooks boolean

Com os notebooks definidos, esse cluster pode ser usado para notebooks

JobsJobNotificationSettings

Nome Caminho Tipo Description
no_alert_for_canceled_runs
no_alert_for_canceled_runs boolean

Se for true, não envie notificações para destinatários especificados no on_failure se a execução for cancelada.

no_alert_for_skipped_runs
no_alert_for_skipped_runs boolean

Se for true, não envie notificações para destinatários especificados em on_failure se a execução for ignorada.

JobsJobParameterDefinition

Nome Caminho Tipo Description
padrão
default string

Valor padrão do parâmetro.

nome
name string

O nome do parâmetro definido. Pode conter apenas caracteres alfanuméricos, _, -, e .

JobsJobRunAs

Nome Caminho Tipo Description
service_principal_name
service_principal_name string

ID do aplicativo de uma entidade de serviço ativa. Definir esse campo requer a função servicePrincipal/user.

user_name
user_name string

O e-mail de um usuário ativo do workspace. Usuários não administradores só podem definir esse campo como seu próprio email.

JobsCronSchedule

Nome Caminho Tipo Description
pause_status
pause_status JobsPauseStatus
quartz_cron_expression
quartz_cron_expression string

Uma expressão Cron usando a sintaxe de Quartzo que descreve a agenda de um trabalho. Consulte o Gatilho cron para obter detalhes. Este campo é necessário.

timezone_id
timezone_id string

Uma ID de fuso horário java. A agenda de um trabalho é resolvida em relação a esse fuso horário. Consulte o Fuso Horário do Java para obter detalhes. Este campo é necessário.

JobsTask

Nome Caminho Tipo Description
clean_rooms_notebook_task
clean_rooms_notebook_task Object
condition_task
condition_task JobsConditionTask
dashboard_task
dashboard_task JobsDashboardTask
dbt_task
dbt_task Object
depends_on
depends_on array of JobsTaskDependency

Uma matriz opcional de objetos que especifica o grafo de dependência da tarefa. Todas as tarefas especificadas neste campo devem ser concluídas antes de executar essa tarefa. A tarefa será executada somente se a condição run_if for verdadeira. A chave é task_key e o valor é o nome atribuído à tarefa dependente.

descrição
description string

Uma descrição opcional para essa tarefa.

disable_auto_optimization
disable_auto_optimization boolean

Uma opção para desabilitar a otimização automática no sem servidor

email_notifications
email_notifications JobsTaskEmailNotifications
environment_key
environment_key string

A chave que faz referência a uma especificação de ambiente em um trabalho. Esse campo é necessário para script Python, roda python e tarefas dbt ao usar computação sem servidor.

existing_cluster_id
existing_cluster_id string

Se existing_cluster_id, a ID de um cluster existente que é usada para todas as execuções. Ao executar trabalhos ou tarefas em um cluster existente, talvez seja necessário reiniciar manualmente o cluster se ele parar de responder. Sugerimos a execução de trabalhos e tarefas em novos clusters para maior confiabilidade

for_each_task
for_each_task JobsForEachTask
Saúde
health JobsJobsHealthRules
job_cluster_key
job_cluster_key string

Se job_cluster_key, essa tarefa será executada reutilizando o cluster especificado em job.settings.job_clusters.

libraries
libraries array of ComputeLibrary

Uma lista opcional de bibliotecas a serem instaladas no cluster. O valor padrão é uma lista vazia.

max_retries
max_retries integer

Um número máximo opcional de vezes para tentar novamente uma execução malsucedida. Uma execução será considerada sem êxito se for concluída com o result_state ou INTERNAL_ERROR life_cycle_state com falha. O valor -1 significa repetir indefinidamente e o valor 0 significa nunca repetir.

min_retry_interval_millis
min_retry_interval_millis integer

Um intervalo mínimo opcional em milissegundos entre o início da execução com falha e a execução de repetição subsequente. O comportamento padrão é que execuções malsucedidas são repetidas imediatamente.

new_cluster
new_cluster ComputeClusterSpec
notebook_task
notebook_task JobsNotebookTask
notification_settings
notification_settings JobsTaskNotificationSettings
pipeline_task
pipeline_task JobsPipelineTask
power_bi_task
power_bi_task Object
python_wheel_task
python_wheel_task JobsPythonWheelTask
retry_on_timeout
retry_on_timeout boolean

Uma política opcional para especificar se um trabalho será repetido quando atingir o tempo limite. O comportamento padrão é não repetir o tempo limite.

run_if
run_if JobsRunIf
run_job_task
run_job_task JobsRunJobTask
spark_jar_task
spark_jar_task JobsSparkJarTask
spark_python_task
spark_python_task JobsSparkPythonTask
spark_submit_task
spark_submit_task JobsSparkSubmitTask
sql_task
sql_task Object
task_key
task_key string

Um nome exclusivo para a tarefa. Esse campo é usado para fazer referência a essa tarefa de outras tarefas. Esse campo é necessário e deve ser exclusivo em seu trabalho pai. Em Atualizar ou Redefinir, esse campo é usado para fazer referência às tarefas a serem atualizadas ou redefinidas.

timeout_seconds
timeout_seconds integer

Um tempo limite opcional aplicado a cada execução desta tarefa de trabalho. Um valor de 0 significa que não há tempo limite.

webhook_notifications
webhook_notifications JobsWebhookNotifications

JobsConditionTask

Nome Caminho Tipo Description
esquerda
left string

O operando à esquerda da tarefa de condição. Pode ser um valor de cadeia de caracteres ou um estado de trabalho ou referência de parâmetro.

Op
op JobsConditionTaskOp
Certo
right string

O operando direito da tarefa de condição. Pode ser um valor de cadeia de caracteres ou um estado de trabalho ou referência de parâmetro.

JobsConditionTaskOp

JobsDashboardTask

Nome Caminho Tipo Description
dashboard_id
dashboard_id string

O identificador do painel a ser atualizado.

assinatura
subscription JobsSubscription
warehouse_id
warehouse_id string

Opcional: a ID do warehouse com a qual executar o painel para o agendamento. Se não for especificado, o warehouse padrão do painel será usado.

JobsSubscription

Nome Caminho Tipo Description
custom_subject
custom_subject string

Opcional: permite que os usuários especifiquem uma linha de assunto personalizada no email enviado aos assinantes.

Pausado
paused boolean

Quando verdadeiro, a assinatura não enviará emails.

Assinantes
subscribers array of JobsSubscriptionSubscriber

A lista de assinantes para a qual enviar o instantâneo do painel.

JobsSubscriptionSubscriber

Nome Caminho Tipo Description
destination_id
destination_id string

Um instantâneo do painel será enviado para o destino quando o campo destination_id estiver presente.

user_name
user_name string

Um instantâneo do painel será enviado para o email do usuário quando o campo user_name estiver presente.

JobsSource

JobsTaskDependency

Nome Caminho Tipo Description
resultado
outcome string

Só pode ser especificado em dependências de tarefa de condição. O resultado da tarefa dependente que deve ser atendida para que essa tarefa seja executada.

task_key
task_key string

O nome da tarefa da qual essa tarefa depende.

JobsTaskEmailNotifications

Nome Caminho Tipo Description
on_duration_warning_threshold_exceeded
on_duration_warning_threshold_exceeded array of string

Uma lista de endereços de email a serem notificados quando a duração de uma execução exceder o limite especificado para a métrica RUN_DURATION_SECONDS no campo de integridade. Se nenhuma regra para a métrica RUN_DURATION_SECONDS for especificada no campo de integridade do trabalho, as notificações não serão enviadas.

on_failure
on_failure array of string

Uma lista de endereços de email a serem notificados quando uma execução for concluída sem êxito. Uma execução é considerada como tendo sido concluída sem êxito se terminar com um INTERNAL_ERROR life_cycle_state ou um FAILED ou TIMED_OUT result_state. Se isso não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas.

on_start
on_start array of string

Uma lista de endereços de email a serem notificados quando uma execução começar. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas.

on_streaming_backlog_exceeded
on_streaming_backlog_exceeded array of string

Uma lista de endereços de email a serem notificados quando os limites de backlog de streaming forem excedidos para qualquer fluxo. Os limites de backlog de streaming podem ser definidos no campo de integridade usando as seguintes métricas: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS ou STREAMING_BACKLOG_FILES. O alerta é baseado na média de 10 minutos dessas métricas. Se o problema persistir, as notificações serão ressentidas a cada 30 minutos.

on_success
on_success array of string

Uma lista de endereços de email a serem notificados quando uma execução for concluída com êxito. Considera-se que uma execução foi concluída com êxito se terminar com uma life_cycle_state TERMINADA e uma result_state SUCCESS. Se não for especificado na criação, redefinição ou atualização do trabalho, a lista estará vazia e as notificações não serão enviadas.

ComputeLibrary

Nome Caminho Tipo Description
Cran
cran ComputeRCranLibrary
jarro
jar string

URI da biblioteca JAR a ser instalada. As URIs com suporte incluem caminhos de workspace, caminhos de volumes de catálogo do Unity e URIs do ADLS. Por exemplo: { "jar": "/Workspace/path/to/library.jar" }, { "jar" : "/Volumes/path/to/library.jar" } ou { "jar": "abfss://my-bucket/library.jar" }. Se o ADLS for usado, verifique se o cluster tem acesso de leitura na biblioteca. Talvez seja necessário iniciar o cluster com uma entidade de serviço do Microsoft Entra ID para acessar o URI do ADLS.

especialista
maven ComputeMavenLibrary
pypi
pypi ComputePythonPyPiLibrary
requisitos
requirements string

URI do arquivo requirements.txt a ser instalado. Há suporte apenas para caminhos de workspace e caminhos de volumes de catálogo do Unity. Por exemplo: { "requirements": "/Workspace/path/to/requirements.txt" } ou { "requirements" : "/Volumes/path/to/requirements.txt" }

whl
whl string

URI da biblioteca de rodas a ser instalada. As URIs com suporte incluem caminhos de workspace, caminhos de volumes de catálogo do Unity e URIs do ADLS. Por exemplo: { "whl": "/Workspace/path/to/library.whl" }, { "whl" : "/Volumes/path/to/library.whl" } ou { "whl": "abfss://my-bucket/library.whl" }. Se o ADLS for usado, verifique se o cluster tem acesso de leitura na biblioteca. Talvez seja necessário iniciar o cluster com uma entidade de serviço do Microsoft Entra ID para acessar o URI do ADLS.

JobsForEachTask

Nome Caminho Tipo Description
simultaneidade
concurrency integer

Um número máximo permitido opcional de execuções simultâneas da tarefa. Defina esse valor se você quiser ser capaz de executar várias execuções da tarefa simultaneamente.

entradas
inputs string

Matriz para tarefa a ser iterada. Pode ser uma cadeia de caracteres JSON ou uma referência a um parâmetro de matriz.

tarefa
task Object

ComputeRCranLibrary

Nome Caminho Tipo Description
pacote
package string

O nome do pacote CRAN a ser instalado.

repositório
repo string

O repositório em que o pacote pode ser encontrado. Se não for especificado, o repositório CRAN padrão será usado.

ComputeMavenLibrary

Nome Caminho Tipo Description
Coordenadas
coordinates string

Coordenadas maven no estilo Gradle. Por exemplo: "org.jsoup:jsoup:1.7.2".

Exclusões
exclusions array of string

Lista de dependências a serem excluídas. Por exemplo: ["slf4j:slf4j", "*:hadoop-client"]. Exclusões de dependência do Maven: https://maven.apache.org/guides/introduction/introduction-to-optional-and-excludes-dependencies.html.

repositório
repo string

Repositório maven do qual instalar o pacote Maven. Se omitido, os pacotes do Repositório Central do Maven e do Spark serão pesquisados.

ComputePythonPyPiLibrary

Nome Caminho Tipo Description
pacote
package string

O nome do pacote pypi a ser instalado. Também há suporte para uma especificação de versão exata opcional. Exemplos: "simplejson" e "simplejson==3.8.0".

repositório
repo string

O repositório em que o pacote pode ser encontrado. Se não for especificado, o índice pip padrão será usado.

JobsNotebookTask

Nome Caminho Tipo Description
base_parameters
base_parameters object

Parâmetros base a serem usados para cada execução deste trabalho. Se a execução for iniciada por uma chamada para :method:jobs/run Now com parâmetros especificados, os dois mapas de parâmetros serão mesclados. Se a mesma chave for especificada em base_parameters e em execução agora, o valor de run-now será usado. Use variáveis de parâmetro de tarefa para definir parâmetros que contêm informações sobre execuções de trabalho. Se o notebook usa um parâmetro que não é especificado no base_parameters do trabalho ou nos parâmetros de substituição run-now, o valor padrão do notebook é usado. Recupere esses parâmetros em um notebook usando dbutils.widgets.get. A representação JSON desse campo não pode exceder 1 MB.

notebook_path
notebook_path string

O caminho do notebook a ser executado no workspace do Azure Databricks ou no repositório remoto. Para notebooks armazenados no workspace do Azure Databricks, o caminho deve ser absoluto e começar com uma barra. Para notebooks armazenados em um repositório remoto, o caminho deve ser relativo. Este campo é necessário.

fonte
source JobsSource
warehouse_id
warehouse_id string

O warehouse_id opcional para executar o notebook em um sql warehouse. Não há suporte para armazéns SQL clássicos, use sql warehouses sem servidor ou profissionais. Observe que os sql warehouses dão suporte apenas a células SQL; se o notebook contiver células não SQL, a execução falhará.

JobsTaskNotificationSettings

Nome Caminho Tipo Description
alert_on_last_attempt
alert_on_last_attempt boolean

Se for true, não envie notificações aos destinatários especificados em on_start para as execuções repetidas e não envie notificações aos destinatários especificados em on_failure até a última repetição da execução.

no_alert_for_canceled_runs
no_alert_for_canceled_runs boolean

Se for true, não envie notificações para destinatários especificados no on_failure se a execução for cancelada.

no_alert_for_skipped_runs
no_alert_for_skipped_runs boolean

Se for true, não envie notificações para destinatários especificados em on_failure se a execução for ignorada.

JobsPipelineTask

Nome Caminho Tipo Description
full_refresh
full_refresh boolean

Se for true, disparará uma atualização completa na tabela dinâmica delta.

pipeline_id
pipeline_id string

O nome completo da tarefa de pipeline a ser executada.

JobsPythonWheelTask

Nome Caminho Tipo Description
entry_point
entry_point string

Ponto de entrada nomeado a ser usado, se ele não existir nos metadados do pacote, ele executará a função do pacote diretamente usando $packageName.$entryPoint()

named_parameters
named_parameters object

Parâmetros de linha de comando passados para a tarefa de roda do Python na forma de ["--name=task", "--data=dbfs:/path/to/data.json"]. Deixe-o vazio se os parâmetros não forem nulos.

package_name
package_name string

Nome do pacote a ser executado

parameters
parameters array of string

Parâmetros de linha de comando passados para a tarefa de roda do Python. Deixe-o vazio se named_parameters não for nulo.

JobsRunIf

JobsRunJobTask

Nome Caminho Tipo Description
job_id
job_id integer

ID do trabalho a ser disparado.

job_parameters
job_parameters object

Parâmetros de nível de trabalho usados para disparar o trabalho.

pipeline_params
pipeline_params JobsPipelineParams

JobsSparkJarTask

Nome Caminho Tipo Description
main_class_name
main_class_name string

O nome completo da classe que contém o método principal a ser executado. Essa classe deve estar contida em um JAR fornecido como uma biblioteca. O código deve usar SparkContext.getOrCreate para obter um contexto spark; caso contrário, as execuções do trabalho falharão.

parameters
parameters array of string

Parâmetros passados para o método principal. Use variáveis de parâmetro de tarefa para definir parâmetros que contêm informações sobre execuções de trabalho.

JobsSparkPythonTask

Nome Caminho Tipo Description
parameters
parameters array of string

Parâmetros de linha de comando passados para o arquivo Python. Use variáveis de parâmetro de tarefa para definir parâmetros que contêm informações sobre execuções de trabalho.

python_file
python_file string

O arquivo Python a ser executado. Há suporte para URIs de arquivo de nuvem (como dbfs:/, s3:/, adls:/, gcs:/) e caminhos de workspace. Para arquivos python armazenados no workspace do Azure Databricks, o caminho deve ser absoluto e começar com /. Para arquivos armazenados em um repositório remoto, o caminho deve ser relativo. Este campo é necessário.

fonte
source JobsSource

JobsSparkSubmitTask

Nome Caminho Tipo Description
parameters
parameters array of string

Parâmetros de linha de comando passados para o envio do Spark. Use variáveis de parâmetro de tarefa para definir parâmetros que contêm informações sobre execuções de trabalho.

JobsWebhookNotifications

Nome Caminho Tipo Description
on_duration_warning_threshold_exceeded
on_duration_warning_threshold_exceeded array of JobsWebhook

Uma lista opcional de IDs de notificação do sistema a serem chamadas quando a duração de uma execução excede o limite especificado para a métrica RUN_DURATION_SECONDS no campo de integridade. Um máximo de 3 destinos pode ser especificado para a propriedade on_duration_warning_threshold_exceeded.

on_failure
on_failure array of JobsWebhook

Uma lista opcional de IDs de notificação do sistema a serem chamadas quando a execução falhar. Um máximo de 3 destinos pode ser especificado para a propriedade on_failure.

on_start
on_start array of JobsWebhook

Uma lista opcional de IDs de notificação do sistema a serem chamadas quando a execução for iniciada. Um máximo de 3 destinos pode ser especificado para a propriedade on_start.

on_streaming_backlog_exceeded
on_streaming_backlog_exceeded array of JobsWebhook

Uma lista opcional de IDs de notificação do sistema a serem chamadas quando os limites de backlog de streaming forem excedidos para qualquer fluxo. Os limites de backlog de streaming podem ser definidos no campo de integridade usando as seguintes métricas: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS ou STREAMING_BACKLOG_FILES. O alerta é baseado na média de 10 minutos dessas métricas. Se o problema persistir, as notificações serão ressentidas a cada 30 minutos. Um máximo de 3 destinos pode ser especificado para a propriedade on_streaming_backlog_exceeded.

on_success
on_success array of JobsWebhook

Uma lista opcional de IDs de notificação do sistema para chamar quando a execução for concluída com êxito. Um máximo de 3 destinos pode ser especificado para a propriedade on_success.

JobsWebhook

Nome Caminho Tipo Description
id
id string

JobsTriggerSettings

Nome Caminho Tipo Description
file_arrival
file_arrival JobsFileArrivalTriggerConfiguration
pause_status
pause_status JobsPauseStatus
periódico
periodic JobsPeriodicTriggerConfiguration

JobsFileArrivalTriggerConfiguration

Nome Caminho Tipo Description
min_time_between_triggers_seconds
min_time_between_triggers_seconds integer

Se definido, o gatilho iniciará uma execução somente após a quantidade de tempo especificada passada desde a última vez em que o gatilho foi acionado. O valor mínimo permitido é de 60 segundos

url
url string

URL a ser monitorada para chegadas de arquivos. O caminho deve apontar para a raiz ou um subcaminho do local externo.

wait_after_last_change_seconds
wait_after_last_change_seconds integer

Se definido, o gatilho iniciará uma execução somente depois que nenhuma atividade de arquivo tiver ocorrido durante o período de tempo especificado. Isso possibilita aguardar a chegada de um lote de arquivos de entrada antes de disparar uma execução. O valor mínimo permitido é de 60 segundos.

JobsPeriodicTriggerConfiguration

Nome Caminho Tipo Description
intervalo
interval integer

O intervalo no qual o gatilho deve ser executado.

unidade
unit JobsPeriodicTriggerConfigurationTimeUnit

JobsPeriodicTriggerConfigurationTimeUnit

JobsTriggerStateProto

Nome Caminho Tipo Description
file_arrival
file_arrival JobsFileArrivalTriggerState

JobsFileArrivalTriggerState

Nome Caminho Tipo Description
using_file_events
using_file_events boolean

Indica se o gatilho aproveita eventos de arquivo para detectar chegadas de arquivo.

JobsRun

Nome Caminho Tipo Description
attempt_number
attempt_number integer

O número de sequência dessa tentativa de execução para uma execução de trabalho disparada. A tentativa inicial de uma execução tem um attempt_number de 0. Se a tentativa de execução inicial falhar e o trabalho tiver uma política de repetição (max_retries > 0), as execuções subsequentes serão criadas com um original_attempt_run_id da ID da tentativa original e uma attempt_number de incremento. As execuções são repetidas somente até que tenham êxito e o attempt_number máximo é o mesmo que o valor max_retries para o trabalho.

cleanup_duration
cleanup_duration integer

O tempo em milissegundos necessário para encerrar o cluster e limpar quaisquer artefatos associados. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo cleanup_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration.

cluster_instance
cluster_instance JobsClusterInstance
cluster_spec
cluster_spec JobsClusterSpec
creator_user_name
creator_user_name string

O nome de usuário do criador. Esse campo não será incluído na resposta se o usuário já tiver sido excluído.

descrição
description string

Descrição da execução

effective_performance_target
effective_performance_target JobsPerformanceTarget
end_time
end_time integer

A hora em que essa execução terminou em milissegundos de época (milissegundos desde 1/1/1970 UTC). Esse campo será definido como 0 se o trabalho ainda estiver em execução.

execution_duration
execution_duration integer

O tempo em milissegundos que levou para executar os comandos no JAR ou notebook até que eles concluíssem, falhassem, atingissem o tempo limite, fossem cancelados ou encontrassem um erro inesperado. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo execution_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration.

git_source
git_source JobsGitSource
has_more
has_more boolean

Indica se a execução tem mais propriedades de matriz (tarefas, job_clusters) que não são mostradas. Eles podem ser acessados por meio do ponto de extremidade :method:jobs/getrun. Ela só é relevante para solicitações da API 2.2 :method:jobs/listruns com expand_tasks=true.

job_clusters
job_clusters array of JobsJobCluster

Uma lista de especificações de cluster de trabalho que podem ser compartilhadas e reutilizados por tarefas deste trabalho. Bibliotecas não podem ser declaradas em um cluster de trabalho compartilhado. Você deve declarar bibliotecas dependentes nas configurações de tarefa. Se mais de 100 clusters de trabalho estiverem disponíveis, você poderá paginar por meio deles usando :method:jobs/getrun.

job_id
job_id integer

O identificador canônico do trabalho que contém essa execução.

job_parameters
job_parameters array of JobsJobParameter

Parâmetros de nível de trabalho usados na execução

job_run_id
job_run_id integer

ID da execução do trabalho à qual essa execução pertence. Para o trabalho herdado e de tarefa única, o campo é preenchido com a ID de execução do trabalho. Para execuções de tarefa, o campo é preenchido com a ID da execução do trabalho à qual a execução da tarefa pertence.

next_page_token
next_page_token string

Um token que pode ser usado para listar a próxima página de propriedades da matriz.

original_attempt_run_id
original_attempt_run_id integer

Se essa execução for uma repetição de uma tentativa de execução anterior, esse campo conterá o run_id da tentativa original; caso contrário, é o mesmo que o run_id.

overriding_parameters
overriding_parameters JobsRunParameters
queue_duration
queue_duration integer

O tempo em milissegundos que a execução gastou na fila.

repair_history
repair_history array of JobsRepairHistoryItem

O histórico de reparo da execução.

run_duration
run_duration integer

O tempo em milissegundos levou a execução do trabalho e todos os seus reparos para terminar.

run_id
run_id integer

O identificador canônico da execução. Essa ID é exclusiva em todas as execuções de todos os trabalhos.

run_name
run_name string

Um nome opcional para a execução. O comprimento máximo é de 4.096 bytes na codificação UTF-8.

run_page_url
run_page_url string

A URL na página de detalhes da execução.

tipo_de_execução
run_type JobsRunType
Cronograma
schedule JobsCronSchedule
setup_duration
setup_duration integer

O tempo em milissegundos necessário para configurar o cluster. Para execuções executadas em novos clusters, esse é o tempo de criação do cluster, para execuções executadas em clusters existentes desta vez deve ser muito curta. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo setup_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration.

hora de início
start_time integer

O momento em que essa execução foi iniciada em milissegundos de época (milissegundos desde 1/1/1970 UTC). Essa pode não ser a hora em que a tarefa de trabalho começa a ser executada, por exemplo, se o trabalho está agendado para ser executado em um novo cluster, esse é o momento em que a chamada de criação do cluster é emitida.

status
status JobsRunStatus
tarefas
tasks array of JobsRunTask

A lista de tarefas executadas pela execução. Cada tarefa tem seus próprios run_id que você pode usar para chamar JobsGetOutput para recuperar as versões de execução. Se mais de 100 tarefas estiverem disponíveis, você poderá paginar por meio delas usando :method:jobs/getrun. Use o campo next_page_token na raiz do objeto para determinar se há mais resultados disponíveis.

disparador
trigger JobsTriggerType
trigger_info
trigger_info JobsTriggerInfo

JobsClusterInstance

Nome Caminho Tipo Description
cluster_id
cluster_id string

O identificador canônico para o cluster usado por uma execução. Esse campo está sempre disponível para execuções em clusters existentes. Para execuções em novos clusters, ele fica disponível depois que o cluster é criado. Esse valor pode ser usado para exibir logs navegando até /#setting/sparkui/$cluster_id/driver-logs. Os logs continuam disponíveis após a conclusão da execução. A resposta não incluirá esse campo se o identificador ainda não estiver disponível.

spark_context_id
spark_context_id string

O identificador canônico para o contexto spark usado por uma execução. Esse campo é preenchido quando a execução inicia a execução. Esse valor pode ser usado para exibir a interface do usuário do Spark navegando até /#setting/sparkui/$cluster_id/$spark_context_id. A interface do usuário do Spark continua disponível após a conclusão da execução. A resposta não incluirá esse campo se o identificador ainda não estiver disponível.

JobsClusterSpec

Nome Caminho Tipo Description
existing_cluster_id
existing_cluster_id string

Se existing_cluster_id, a ID de um cluster existente que é usada para todas as execuções. Ao executar trabalhos ou tarefas em um cluster existente, talvez seja necessário reiniciar manualmente o cluster se ele parar de responder. Sugerimos a execução de trabalhos e tarefas em novos clusters para maior confiabilidade

job_cluster_key
job_cluster_key string

Se job_cluster_key, essa tarefa será executada reutilizando o cluster especificado em job.settings.job_clusters.

libraries
libraries array of ComputeLibrary

Uma lista opcional de bibliotecas a serem instaladas no cluster. O valor padrão é uma lista vazia.

new_cluster
new_cluster ComputeClusterSpec

JobsJobParameter

Nome Caminho Tipo Description
padrão
default string

O valor padrão opcional do parâmetro

nome
name string

O nome do parâmetro

value
value string

O valor usado na execução

JobsRunParameters

Nome Caminho Tipo Description
pipeline_params
pipeline_params JobsPipelineParams

JobsRepairHistoryItem

Nome Caminho Tipo Description
effective_performance_target
effective_performance_target JobsPerformanceTarget
end_time
end_time integer

A hora de término da execução (reparada).

id
id integer

A ID do reparo. Retornado apenas para os itens que representam um reparo em repair_history.

hora de início
start_time integer

A hora de início da execução (reparada).

status
status JobsRunStatus
task_run_ids
task_run_ids array of integer

As IDs de execução da tarefa são executadas como parte desse item de histórico de reparos.

tipo
type JobsRepairHistoryItemType

JobsRunStatus

Nome Caminho Tipo Description
queue_details
queue_details JobsQueueDetails
estado
state JobsRunLifecycleStateV2State
termination_details
termination_details JobsTerminationDetails

JobsQueueDetails

Nome Caminho Tipo Description
codificar
code JobsQueueDetailsCodeCode
mensagem
message string

Uma mensagem descritiva com os detalhes da fila. Esse campo não foi estruturado e seu formato exato está sujeito a alterações.

JobsQueueDetailsCodeCode

JobsRunLifecycleStateV2State

JobsTerminationDetails

Nome Caminho Tipo Description
codificar
code JobsTerminationCodeCode
mensagem
message string

Uma mensagem descritiva com os detalhes da terminação. Esse campo não foi estruturado e o formato pode ser alterado.

tipo
type JobsTerminationTypeType

JobsTerminationCodeCode

JobsTerminationTypeType

JobsRepairHistoryItemType

JobsRunType

JobsRunTask

Nome Caminho Tipo Description
attempt_number
attempt_number integer

O número de sequência dessa tentativa de execução para uma execução de trabalho disparada. A tentativa inicial de uma execução tem um attempt_number de 0. Se a tentativa de execução inicial falhar e o trabalho tiver uma política de repetição (max_retries > 0), as execuções subsequentes serão criadas com um original_attempt_run_id da ID da tentativa original e uma attempt_number de incremento. As execuções são repetidas somente até que tenham êxito e o attempt_number máximo é o mesmo que o valor max_retries para o trabalho.

clean_rooms_notebook_task
clean_rooms_notebook_task Object
cleanup_duration
cleanup_duration integer

O tempo em milissegundos necessário para encerrar o cluster e limpar quaisquer artefatos associados. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo cleanup_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration.

cluster_instance
cluster_instance JobsClusterInstance
condition_task
condition_task JobsRunConditionTask
dashboard_task
dashboard_task Object
dbt_task
dbt_task Object
depends_on
depends_on array of JobsTaskDependency

Uma matriz opcional de objetos que especifica o grafo de dependência da tarefa. Todas as tarefas especificadas neste campo devem ser concluídas com êxito antes de executar essa tarefa. A chave é task_key e o valor é o nome atribuído à tarefa dependente.

descrição
description string

Uma descrição opcional para essa tarefa.

effective_performance_target
effective_performance_target JobsPerformanceTarget
email_notifications
email_notifications JobsJobEmailNotifications
end_time
end_time integer

A hora em que essa execução terminou em milissegundos de época (milissegundos desde 1/1/1970 UTC). Esse campo será definido como 0 se o trabalho ainda estiver em execução.

environment_key
environment_key string

A chave que faz referência a uma especificação de ambiente em um trabalho. Esse campo é necessário para script Python, roda python e tarefas dbt ao usar computação sem servidor.

execution_duration
execution_duration integer

O tempo em milissegundos que levou para executar os comandos no JAR ou notebook até que eles concluíssem, falhassem, atingissem o tempo limite, fossem cancelados ou encontrassem um erro inesperado. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo execution_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration.

existing_cluster_id
existing_cluster_id string

Se existing_cluster_id, a ID de um cluster existente que é usada para todas as execuções. Ao executar trabalhos ou tarefas em um cluster existente, talvez seja necessário reiniciar manualmente o cluster se ele parar de responder. Sugerimos a execução de trabalhos e tarefas em novos clusters para maior confiabilidade

for_each_task
for_each_task Object
git_source
git_source JobsGitSource
job_cluster_key
job_cluster_key string

Se job_cluster_key, essa tarefa será executada reutilizando o cluster especificado em job.settings.job_clusters.

libraries
libraries array of Object

Uma lista opcional de bibliotecas a serem instaladas no cluster. O valor padrão é uma lista vazia.

new_cluster
new_cluster Object
notebook_task
notebook_task JobsNotebookTask
notification_settings
notification_settings Object
pipeline_task
pipeline_task Object
power_bi_task
power_bi_task Object
python_wheel_task
python_wheel_task Object
queue_duration
queue_duration integer

O tempo em milissegundos que a execução gastou na fila.

resolved_values
resolved_values JobsResolvedValues
run_duration
run_duration integer

O tempo em milissegundos levou a execução do trabalho e todos os seus reparos para terminar.

run_id
run_id integer

A ID da execução da tarefa.

run_if
run_if JobsRunIf
run_job_task
run_job_task JobsRunJobTask
run_page_url
run_page_url string
setup_duration
setup_duration integer

O tempo em milissegundos necessário para configurar o cluster. Para execuções executadas em novos clusters, esse é o tempo de criação do cluster, para execuções executadas em clusters existentes desta vez deve ser muito curta. A duração de uma execução de tarefa é a soma do setup_duration, do execution_duration e do cleanup_duration. O campo setup_duration é definido como 0 para execuções de trabalho de várias tarefas. A duração total de uma execução de trabalho multitarefa é o valor do campo run_duration.

spark_jar_task
spark_jar_task Object
spark_python_task
spark_python_task Object
spark_submit_task
spark_submit_task Object
sql_task
sql_task Object
hora de início
start_time integer

O momento em que essa execução foi iniciada em milissegundos de época (milissegundos desde 1/1/1970 UTC). Essa pode não ser a hora em que a tarefa de trabalho começa a ser executada, por exemplo, se o trabalho está agendado para ser executado em um novo cluster, esse é o momento em que a chamada de criação do cluster é emitida.

status
status JobsRunStatus
task_key
task_key string

Um nome exclusivo para a tarefa. Esse campo é usado para fazer referência a essa tarefa de outras tarefas. Esse campo é necessário e deve ser exclusivo em seu trabalho pai. Em Atualizar ou Redefinir, esse campo é usado para fazer referência às tarefas a serem atualizadas ou redefinidas.

timeout_seconds
timeout_seconds integer

Um tempo limite opcional aplicado a cada execução desta tarefa de trabalho. Um valor de 0 significa que não há tempo limite.

webhook_notifications
webhook_notifications Object

JobsRunConditionTask

Nome Caminho Tipo Description
esquerda
left string

O operando à esquerda da tarefa de condição. Pode ser um valor de cadeia de caracteres ou um estado de trabalho ou referência de parâmetro.

Op
op JobsConditionTaskOp
resultado
outcome string

O resultado da avaliação da expressão de condição. Preenchido se a tarefa foi concluída com êxito. Pode ser "true" ou "false"

Certo
right string

O operando direito da tarefa de condição. Pode ser um valor de cadeia de caracteres ou um estado de trabalho ou referência de parâmetro.

JobsTriggerType

JobsTriggerInfo

Nome Caminho Tipo Description
run_id
run_id integer

A ID de execução da execução da tarefa Executar Trabalho

JobsRunOutput

Nome Caminho Tipo Description
clean_rooms_notebook_output
clean_rooms_notebook_output Object
dashboard_output
dashboard_output Object
dbt_output
dbt_output Object
erro
error string

Uma mensagem de erro indicando por que uma tarefa falhou ou por que a saída não está disponível. A mensagem não foi estruturada e seu formato exato está sujeito a alterações.

error_trace
error_trace string

Se houver um erro ao executar a execução, esse campo conterá todos os rastreamentos de pilha disponíveis.

informação
info string
logs
logs string

A saída de tarefas que gravam em fluxos padrão (stdout/stderr), como spark_jar_task, spark_python_task, python_wheel_task. Não há suporte para o notebook_task, pipeline_task ou spark_submit_task. O Azure Databricks restringe essa API para retornar os últimos 5 MB desses logs.

logs_truncated
logs_truncated boolean

Se os logs são truncados.

metadados
metadata Object
notebook_output
notebook_output JobsNotebookOutput
run_job_output
run_job_output JobsRunJobOutput
sql_output
sql_output Object

JobsNotebookOutput

Nome Caminho Tipo Description
resultado
result string

O valor passado para dbutils.notebook.exit(). O Azure Databricks restringe essa API para retornar os primeiros 5 MB do valor. Para obter um resultado maior, seu trabalho pode armazenar os resultados em um serviço de armazenamento em nuvem. Esse campo estará ausente se dbutils.notebook.exit() nunca tiver sido chamado.

truncado
truncated boolean

Se o resultado foi truncado ou não.

JobsRunJobOutput

Nome Caminho Tipo Description
run_id
run_id integer

A ID de execução da execução do trabalho disparado

JobsResolvedValues

Nome Caminho Tipo Description
condition_task
condition_task JobsResolvedConditionTaskValues
dbt_task
dbt_task JobsResolvedDbtTaskValues
notebook_task
notebook_task JobsResolvedNotebookTaskValues
python_wheel_task
python_wheel_task JobsResolvedPythonWheelTaskValues
run_job_task
run_job_task JobsResolvedRunJobTaskValues
simulation_task
simulation_task JobsResolvedParamPairValues
spark_jar_task
spark_jar_task JobsResolvedStringParamsValues
spark_python_task
spark_python_task JobsResolvedStringParamsValues
spark_submit_task
spark_submit_task JobsResolvedStringParamsValues
sql_task
sql_task JobsResolvedParamPairValues

JobsResolvedConditionTaskValues

Nome Caminho Tipo Description
esquerda
left string
Certo
right string

JobsResolvedDbtTaskValues

Nome Caminho Tipo Description
commands
commands array of string

JobsResolvedNotebookTaskValues

Nome Caminho Tipo Description
base_parameters
base_parameters object

JobsResolvedPythonWheelTaskValues

Nome Caminho Tipo Description
named_parameters
named_parameters object
parameters
parameters array of string

JobsResolvedRunJobTaskValues

Nome Caminho Tipo Description
job_parameters
job_parameters object
parameters
parameters object

JobsResolvedParamPairValues

Nome Caminho Tipo Description
parameters
parameters object

JobsResolvedStringParamsValues

Nome Caminho Tipo Description
parameters
parameters array of string