Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Note
Essas informações se aplicam às versões 0.205 e superiores da CLI do Databricks. A CLI do Databricks está em Pré-Visualização Pública.
O uso da CLI do Databricks está sujeito à Licença do Databricks e ao Aviso de Privacidade do Databricks, incluindo quaisquer disposições de Dados de Uso.
O bundle grupo de comandos dentro da CLI do Databricks contém comandos para gerenciar pacotes de ativos do Databricks. Os Pacotes de Ativos Databricks permitem expressar projetos como código e validar, implantar e executar programaticamente fluxos de trabalho do Azure Databricks, como trabalhos do Azure Databricks, Lakeflow Spark Declarative Pipelines e MLOps Stacks. Consulte O que são Databricks Asset Bundles?.
Note
Os comandos bundle usam as configurações em databricks.yml para autenticação quando executados de dentro da pasta bundle. Se você quiser executar comandos bundle com autenticação diferente de dentro da pasta bundle, especifique um perfil de configuração usando o --profile sinalizador (ou -p) e não especifique um --target.
Como alternativa, execute comandos que não precisam da mesma autenticação que o pacote de fora da pasta do pacote.
Implantação do pacote Databricks
Implante um pacote no espaço de trabalho remoto.
databricks bundle deploy [flags]
Destino e identidade do pacote
Para implantar o pacote em um destino específico, defina a -t opção (ou --target) junto com o nome do destino conforme declarado nos arquivos de configuração do pacote. Se nenhuma opção de comando for especificada, o destino padrão conforme declarado nos arquivos de configuração do pacote será usado. Por exemplo, para um destino declarado com o nome dev:
databricks bundle deploy -t dev
Um pacote pode ser implantado em vários espaços de trabalho, como espaços de trabalho de desenvolvimento, preparação e produção. Fundamentalmente, a propriedade root_path é o que determina a identidade exclusiva de um pacote, que por padrão é ~/.bundle/${bundle.name}/${bundle.target}. Portanto, por padrão, a identidade de um pacote é composta pela identidade do implantador, o nome do pacote e o nome de destino do pacote. Se forem idênticos em pacotes diferentes, a implementação destes pacotes interferirá um com o outro.
Além disso, uma implementação de conjunto monitoriza os recursos que cria no espaço de trabalho de destino através dos seus IDs como um estado que é armazenado no sistema de ficheiros do espaço de trabalho. Os nomes de recursos não são usados para correlacionar entre uma implantação de pacote e uma instância de recurso, portanto:
- Se um recurso na configuração do pacote não existir no espaço de trabalho de destino, ele será criado.
- Se existir um recurso na configuração do pacote no espaço de trabalho de destino, ele será atualizado no espaço de trabalho.
- Se um recurso for removido da configuração do pacote, ele será removido do espaço de trabalho de destino se tiver sido implantado anteriormente.
- A associação de um recurso com um pacote só pode ser esquecida se você alterar o nome do pacote, o destino do pacote ou o espaço de trabalho. Você pode executar
bundle validatepara gerar um resumo contendo esses valores.
Opções
--auto-approve
Ignore as aprovações interativas que podem ser necessárias para a implantação.
-c, --cluster-id string
Substitua o cluster na implantação com a ID de cluster fornecida.
--fail-on-active-runs
Falha se houver trabalhos ou pipelines em execução na implantação.
--force
Validação de ramificação Git de substituição forçada.
--force-lock
Aquisição forçada de bloqueio de implantação.
Exemplos
O exemplo a seguir implanta um pacote usando uma ID de cluster específica:
databricks bundle deploy --cluster-id 0123-456789-abcdef
Implantação do pacote Databricks
Comandos relacionados à implantação.
databricks bundle deployment [command]
Comandos disponíveis
-
bind- Vincular um recurso definido por pacote a um recurso existente no espaço de trabalho remoto. -
migrate- Migrar um pacote para usar o mecanismo de implementação direta. -
unbind- Desvincular um recurso definido por pacote de seu recurso remoto.
associação de implantação do pacote databricks
Vincule recursos definidos por pacote a recursos existentes no espaço de trabalho do Azure Databricks para que eles se tornem gerenciados pelo Databricks Asset Bundles. Se você vincular um recurso, o recurso existente do Azure Databricks no espaço de trabalho será atualizado com base na configuração definida no pacote ao qual ele está vinculado após o próximo bundle deploy.
databricks bundle deployment bind KEY RESOURCE_ID [flags]
Bind não recria dados. Por exemplo, se um pipeline com dados num catálogo tiver a ligação estabelecida, poderá implementar nesse pipeline sem perder os dados existentes. Além disso, você não precisa recalcular a visualização Materializada, por exemplo, para que os pipelines não precisem ser executados novamente.
O comando bind deve ser usado com o --target flag. Por exemplo, vincule a sua implementação de produção ao seu pipeline de produção usando databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929
Tip
É uma boa ideia confirmar o recurso no espaço de trabalho antes de executar o bind.
A associação é suportada para os seguintes recursos:
- app
- cluster
- dashboard
- job
- model_serving_endpoint
- pipeline
- quality_monitor
- registered_model
- schema
- volume
Para recursos suportados pelo comando bundle generate, ligue automaticamente o recurso após a geração usando a opção --bind.
Argumentos
KEY
A chave do recurso para ligar
RESOURCE_ID
A ID do recurso existente ao qual vincular
Opções
--auto-approve
Aprovar automaticamente a vinculação, em vez de solicitar
--force-lock
Aquisição forçada do bloqueio de implantação
Exemplos
O comando a seguir vincula o recurso hello_job à sua contraparte remota no espaço de trabalho. O comando gera uma comparação e permite que você negue a vinculação de recursos, mas, se confirmada, todas as atualizações na definição de trabalho no pacote são aplicadas ao trabalho remoto correspondente quando o pacote for implantado na próxima vez.
databricks bundle deployment bind hello_job 6565621249
migração de implementação do pacote Databricks
Important
Este recurso é Experimental.
Migre o pacote do motor de implementação do Terraform para o motor de implementação direto. Veja Migração para o motor de implementação direta. Para completar a migração, deve então implementar o bundle.
Pode verificar que uma migração foi bem-sucedida executando databricks bundle plan. Veja Databricks bundle plan.
databricks bundle deployment migrate [flags]
Argumentos
Nenhum
Opções
Exemplos
O exemplo seguinte migra o bundle atual para usar o motor de implementação direta:
databricks bundle deployment migrate
desvincular a implantação do pacote databricks
Remova o link entre o recurso em um pacote e sua contraparte remota em um espaço de trabalho.
databricks bundle deployment unbind KEY [flags]
Argumentos
KEY
A chave do recurso a desvincular
Opções
--force-lock
Aquisição forçada de bloqueio de implantação.
Exemplos
O exemplo a seguir desvincula o hello_job recurso:
databricks bundle deployment unbind hello_job
destruição do pacote databricks
Warning
Eliminar um pacote apaga permanentemente os trabalhos, pipelines e artefactos anteriormente implantados por esse pacote. Esta ação não pode ser anulada.
Exclua trabalhos, pipelines, outros recursos e artefatos que foram implantados anteriormente.
databricks bundle destroy [flags]
Note
A identidade de um pacote é composta pelo nome do pacote, o destino do pacote e o espaço de trabalho. Se você tiver alterado qualquer um deles e, em seguida, tentar destruir um pacote antes da implantação, ocorrerá um erro.
Por padrão, você será solicitado a confirmar a exclusão permanente dos trabalhos, pipelines e artefatos implantados anteriormente. Para ignorar esses prompts e executar a exclusão permanente automática, adicione a --auto-approve opção ao bundle destroy comando.
Opções
--auto-approve
Ignorar aprovações interativas para excluir recursos e arquivos
--force-lock
Aquisição forçada de bloqueio de implantação.
Exemplos
O comando a seguir exclui todos os recursos e artefatos implantados anteriormente definidos nos arquivos de configuração do pacote:
databricks bundle destroy
Gerar pacote Databricks
Gere a configuração do pacote para um recurso que já existe no espaço de trabalho do Databricks. Os seguintes recursos são suportados: aplicativo, painel, trabalho, pipeline.
Por padrão, esse comando gera um *.yml arquivo para o resources recurso na pasta do projeto de pacote e também baixa todos os arquivos, como blocos de anotações, referenciados na configuração.
Important
O bundle generate comando é fornecido como uma conveniência para gerar automaticamente a configuração de recursos. No entanto, se o seu pacote incluir a configuração de recursos e você implantá-la, o Azure Databricks criará um novo recurso em vez de atualizar o existente. Para atualizar um recurso existente, deve-se usar o sinalizador --bind com bundle generate ou executar bundle deployment bind antes de implantar. Consulte databricks bundle deployment bind.
databricks bundle generate [command]
Comandos disponíveis
-
app- Gerar configuração de pacote para um aplicativo Databricks. -
dashboard- Gerar configuração para um dashboard. -
job- Gerar configuração de pacote para um trabalho. -
pipeline- Gerar configuração de bundle para um pipeline.
Opções
--key string
Chave de recurso a ser usada para a configuração gerada
Databricks bundle gerar aplicativo
Gere a configuração do pacote para um aplicativo Databricks existente no espaço de trabalho.
databricks bundle generate app [flags]
Opções
--bind
Associe automaticamente o recurso gerado ao existente no espaço de trabalho.
-d, --config-dir string
Caminho do diretório onde a configuração do pacote de saída será armazenada ("recursos" padrão)
--existing-app-name string
Nome do aplicativo para gerar a configuração
-f, --force
Forçar a substituição de arquivos existentes no diretório de saída
-s, --source-dir string
Caminho do diretório onde os arquivos do aplicativo serão armazenados (padrão "src/app")
Exemplos
O exemplo a seguir gera configuração para um aplicativo existente chamado my-app. Você pode obter o nome da aplicação no separador Computação>Aplicações da interface do utilizador do espaço de trabalho.
databricks bundle generate app --existing-app-name my-app
O comando a seguir gera um novo hello_world.app.yml arquivo na pasta do resources projeto bundle e baixa os arquivos de código do aplicativo, como o arquivo app.yaml de configuração de comando do aplicativo e o arquivo principal app.py. Por padrão, os arquivos de código são copiados para a pasta do src pacote.
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
Databricks bundle gerar painel
Gere a configuração de um painel existente no espaço de trabalho.
databricks bundle generate dashboard [flags]
Tip
Para atualizar o .lvdash.json arquivo depois de já ter implantado um painel, use a --resource opção quando executar bundle generate dashboard para gerar esse arquivo para o recurso de painel existente. Para sondar e recuperar continuamente atualizações para um painel, use as opções --force e --watch.
Opções
--bind
Associe automaticamente o recurso gerado ao existente no espaço de trabalho.
-s, --dashboard-dir string
Diretório para gravar a representação do painel (padrão "src")
--existing-id string
ID do painel para gerar a configuração
--existing-path string
Caminho do espaço de trabalho do painel para gerar a configuração
-f, --force
Forçar a substituição de arquivos existentes no diretório de saída
--resource string
Chave de recurso do painel para observar as alterações
-d, --resource-dir string
Diretório para gravar a configuração (padrão "recursos")
--watch
Fique atento às alterações no painel e atualize a configuração
Exemplos
O exemplo a seguir gera a configuração por um ID de painel existente:
databricks bundle generate dashboard --existing-id abc123
Você também pode gerar configuração para um painel existente por caminho de espaço de trabalho. Copie o caminho do espaço de trabalho para um painel da interface do usuário do espaço de trabalho.
Por exemplo, o comando a seguir gera um novo baby_gender_by_county.dashboard.yml arquivo na resources pasta do projeto bundle que contém o YAML abaixo e baixa o baby_gender_by_county.lvdash.json arquivo para a pasta do src projeto.
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
pacote databricks gerar trabalho
Gere a configuração do pacote para um trabalho.
Note
Atualmente, apenas trabalhos com tarefas de bloco de anotações são suportados por esse comando.
databricks bundle generate job [flags]
Opções
--bind
Associe automaticamente o recurso gerado ao existente no espaço de trabalho.
-d, --config-dir string
Caminho dir onde a configuração de saída será armazenada ("recursos" padrão)
--existing-job-id int
ID do trabalho para o qual gerar a configuração
-f, --force
Forçar a substituição de arquivos existentes no diretório de saída
-s, --source-dir string
Caminho dir onde os arquivos baixados serão armazenados (padrão "src")
Exemplos
O exemplo a seguir gera um novo hello_job.yml arquivo na pasta do resources projeto bundle que contém o YAML abaixo e baixa o simple_notebook.py para a pasta do src projeto. Ele também vincula o recurso gerado com o trabalho existente no espaço de trabalho.
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
pacote databricks gerar pipeline
Gere a configuração do pacote para um pipeline.
databricks bundle generate pipeline [flags]
Opções
--bind
Associe automaticamente o recurso gerado ao existente no espaço de trabalho.
-d, --config-dir string
Caminho dir onde a configuração de saída será armazenada ("recursos" padrão)
--existing-pipeline-id string
ID do pipeline para gerar a configuração para
-f, --force
Forçar a substituição de arquivos existentes no diretório de saída
-s, --source-dir string
Caminho dir onde os arquivos baixados serão armazenados (padrão "src")
Exemplos
O exemplo a seguir gera configuração para um pipeline existente:
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
Databricks bundle init
Inicialize um novo pacote usando um modelo de pacote. Os modelos podem ser configurados para solicitar valores ao usuário. Consulte Modelos de projeto do Databricks Asset Bundle.
databricks bundle init [TEMPLATE_PATH] [flags]
Argumentos
TEMPLATE_PATH
Modelo a ser usado para inicialização (opcional)
Opções
--branch string
Ramificação do Git a ser usada para inicialização de modelo
--config-file string
Arquivo JSON contendo pares de valores de chave de parâmetros de entrada necessários para a inicialização do modelo.
--output-dir string
Diretório para gravar o modelo inicializado.
--tag string
Tag Git a ser usada para inicialização de modelo
--template-dir string
Caminho do diretório dentro de um repositório Git que contém o modelo.
Exemplos
O exemplo a seguir solicita uma lista de modelos de pacote padrão para escolher:
databricks bundle init
O exemplo a seguir inicializa um pacote usando o modelo Python padrão:
databricks bundle init default-python
Para criar um Databricks Asset Bundle usando um modelo personalizado do Databricks Asset Bundle, especifique o caminho do modelo personalizado:
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
O exemplo a seguir inicializa um pacote de um repositório Git:
databricks bundle init https://github.com/my/repository
O exemplo a seguir é inicializado com uma ramificação específica:
databricks bundle init --branch main
Databricks Bundle Aberto
Navegue até um recurso de pacote no espaço de trabalho, especificando o recurso a ser aberto. Se uma chave de recurso não for especificada, esse comando produzirá uma lista dos recursos do pacote para escolher.
databricks bundle open [flags]
Opções
--force-pull
Ignorar cache local e carregar o estado do espaço de trabalho remoto
Exemplos
O exemplo a seguir inicia um navegador e navega até o baby_gender_by_county painel no bundle no espaço de trabalho Databricks configurado para o bundle:
databricks bundle open baby_gender_by_county
Plano do pacote Databricks
Mostrar o plano de implantação para a configuração atual do pacote.
Este comando cria o pacote e exibe as ações que serão executadas nos recursos que seriam implantados, sem fazer alterações. Isso permite visualizar as alterações antes de executar bundle deploy.
databricks bundle plan [flags]
Opções
-c, --cluster-id string
Substitua o cluster na implantação com a ID de cluster fornecida.
--force
Validação de ramificação Git de substituição forçada.
Exemplos
O exemplo a seguir gera o plano de implantação para um pacote que cria uma roda Python e define um trabalho e um pipeline:
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
Execução do pacote Databricks
Execute um trabalho, pipeline ou script. Se não especificares um recurso, o prompt de comando apresentará trabalhos, pipelines e scripts definidos para escolher. Como alternativa, especifique o identificador de trabalho ou pipeline ou o nome do script declarado nos ficheiros de configuração do pacote.
databricks bundle run [flags] [KEY]
Validar um pipeline
Se pretender executar uma validação de pipeline, use a --validate-only opção, como demonstrado no exemplo seguinte:
databricks bundle run --validate-only my_pipeline
Passar parâmetros de trabalho
Para passar parâmetros de trabalho, use a opção --params seguida por pares chave-valor separados por vírgula, onde a chave é o nome do parâmetro. Por exemplo, o comando a seguir define o parâmetro com o nome message para o valor HelloWorld no trabalho hello_job:
databricks bundle run --params message=HelloWorld hello_job
Note
Como mostrado nos exemplos a seguir, você pode passar parâmetros para tarefas de trabalho usando as opções de tarefa de trabalho, mas a --params opção é o método recomendado para passar parâmetros de trabalho. Um erro ocorre se os parâmetros de trabalho são especificados para um trabalho que não tem parâmetros de trabalho definidos ou se os parâmetros de tarefa são especificados para um trabalho que tem parâmetros de trabalho definidos.
Você também pode especificar argumentos posicionais ou de palavra-chave. Se o trabalho especificado usar parâmetros de trabalho ou tiver uma tarefa de bloco de anotações com parâmetros, os nomes dos sinalizadores serão mapeados para os nomes dos parâmetros:
databricks bundle run hello_job -- --key1 value1 --key2 value2
Ou se o trabalho especificado não usar parâmetros de trabalho e o trabalho tiver uma tarefa de arquivo Python ou uma tarefa de roda Python:
databricks bundle run my_job -- value1 value2 value3
Para obter um exemplo de definição de trabalho com parâmetros, consulte Trabalho com parâmetros.
Executar scripts
Para executar scripts como testes de integração com as credenciais de autenticação configuradas de um pacote, você pode executar scripts embutidos ou executar um script definido na configuração do pacote. Os scripts são executados usando o mesmo contexto de autenticação configurado no pacote.
Anexe um hífen duplo (
--) apósbundle runpara executar scripts embutidos. Por exemplo, o comando a seguir exibe o diretório de trabalho do usuário atual.databricks bundle run -- python3 -c 'import os; print(os.getcwd())'Como alternativa, defina um script dentro do
scriptsmapeamento em sua configuração de pacote e, em seguida, usebundle runpara executar o script:scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptPara obter mais informações sobre
scriptsconfiguração, consulte scripts e scripts.
As informações de autenticação do pacote são passadas para processos subordinados através de variáveis de ambiente. Consulte Autenticação unificada Databricks.
Argumentos
KEY
O identificador exclusivo do recurso a ser executado (opcional)
Opções
--no-wait
Não espere a execução ser concluída.
--restart
Reinicie a execução se ela já estiver em execução.
Sinalizadores de emprego
Os sinalizadores a seguir são sinalizadores de parâmetro de nível de trabalho. Consulte a seção Configuração dos parâmetros de trabalho.
--params stringToString
Pares k=v separados por vírgulas para parâmetros de trabalho (padrão [])
Sinalizadores de tarefas de trabalho
Os sinalizadores a seguir são sinalizadores de parâmetros no nível da tarefa. Consulte Configurar parâmetros de tarefa. O Databricks recomenda o uso de parâmetros de nível de trabalho (--params) sobre parâmetros de nível de tarefa.
--dbt-commands strings
Uma lista de comandos a serem executados para trabalhos com tarefas DBT.
--jar-params strings
Uma lista de parâmetros para trabalhos com tarefas JAR do Spark.
--notebook-params stringToString
Um mapa de chaves para valores para trabalhos com tarefas de bloco de anotações. (padrão [])
--pipeline-params stringToString
Um mapa de chaves para valores para trabalhos com tarefas de pipeline. (padrão [])
--python-named-params stringToString
Um mapa de chaves para valores para trabalhos com tarefas de roda Python. (padrão [])
--python-params strings
Uma lista de parâmetros para trabalhos com tarefas Python.
--spark-submit-params strings
Uma lista de parâmetros para trabalhos com tarefas de envio do Spark.
--sql-params stringToString
Um mapa de chaves para valores para trabalhos com tarefas SQL. (padrão [])
Sinalizadores de oleoduto
Os sinalizadores a seguir são sinalizadores de pipeline.
--full-refresh strings
Lista de tabelas para redefinir e recalcular.
--full-refresh-all
Execute uma redefinição completa do gráfico e recalcule.
--refresh strings
Lista de tabelas a atualizar.
--refresh-all
Execute uma atualização completa do gráfico.
--validate-only
Execute uma atualização para validar a correção do gráfico.
Exemplos
O exemplo a seguir executa um trabalho hello_job no destino padrão:
databricks bundle run hello_job
O exemplo a seguir executa um trabalho hello_job dentro do contexto de um destino declarado com o nome dev:
databricks bundle run -t dev hello_job
O exemplo a seguir cancela e reinicia uma execução de trabalho existente:
databricks bundle run --restart hello_job
O exemplo a seguir executa um pipeline com atualização completa:
databricks bundle run my_pipeline --full-refresh-all
O exemplo a seguir executa um comando no contexto do pacote:
databricks bundle run -- echo "hello, world"
Esquema do pacote Databricks
Exiba o esquema JSON para a configuração do pacote.
databricks bundle schema [flags]
Opções
Exemplos
O exemplo a seguir gera a saída do esquema JSON para a configuração do pacote:
databricks bundle schema
Para gerar o esquema de configuração do pacote como um arquivo JSON, execute o bundle schema comando e redirecione a saída para um arquivo JSON. Por exemplo, você pode gerar um arquivo nomeado bundle_config_schema.json dentro do diretório atual:
databricks bundle schema > bundle_config_schema.json
Resumo do pacote Databricks
Produza um resumo da identidade e dos recursos de um pacote, incluindo links diretos para recursos para que você possa navegar facilmente até o recurso no espaço de trabalho Databricks.
databricks bundle summary [flags]
Tip
Você também pode usar bundle open para navegar até um recurso no espaço de trabalho Databricks. Veja databricks bundle open.
Opções
--force-pull
Ignorar cache local e carregar o estado do espaço de trabalho remoto
Exemplos
O exemplo a seguir gera um resumo dos recursos implantados de um pacote:
databricks bundle summary
A saída a seguir é o resumo de um pacote chamado my_pipeline_bundle que define um trabalho e um pipeline:
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
Sincronização de pacotes Databricks
Execute uma sincronização unidirecional das alterações de arquivo de um pacote em um diretório local do sistema de arquivos para um diretório dentro de um espaço de trabalho remoto do Azure Databricks.
Note
bundle sync os comandos não conseguem sincronizar alterações de ficheiros de um diretório num espaço de trabalho remoto do Azure Databricks para um diretório num sistema de ficheiros local.
databricks bundle sync [flags]
databricks bundle sync comandos funcionam da mesma forma que databricks sync comandos e são oferecidos para conveniência na produtividade. Para obter informações sobre o uso do comando, consulte sync comando.
Opções
--dry-run
Simule a execução da sincronização sem fazer alterações reais
--full
Executar sincronização completa (o padrão é incremental)
--interval duration
Intervalo de sondagem do sistema de arquivos (para --watch) (padrão 1s)
--output type
Tipo de formato de saída
--watch
Observe as alterações no sistema de arquivos local
Exemplos
O exemplo a seguir executa uma sincronização de execução seca:
databricks bundle sync --dry-run
O exemplo a seguir procura alterações e sincroniza automaticamente:
databricks bundle sync --watch
O exemplo a seguir executa uma sincronização completa:
databricks bundle sync --full
Databricks Bundle Validar
Valide se os arquivos de configuração do pacote estão sintaticamente corretos.
databricks bundle validate [flags]
Por padrão, esse comando retorna um resumo da identidade do pacote:
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
Note
O bundle validate comando emite avisos se as propriedades do recurso forem definidas nos arquivos de configuração do pacote que não forem encontrados no esquema do objeto correspondente.
Se você quiser apenas gerar um resumo da identidade e dos recursos do pacote, use o resumo do pacote.
Opções
Exemplos
O exemplo a seguir valida a configuração do pacote:
databricks bundle validate
Bandeiras globais
--debug
Se o log de depuração deve ser habilitado.
-h ou --help
Exiba a ajuda para a CLI do Databricks ou para o grupo de comandos relacionado ou para o comando relacionado.
--log-file string
Uma cadeia de caracteres que representa o ficheiro onde os registos de saída são gravados. Se esse sinalizador não for especificado, o padrão é gravar logs de saída no stderr.
--log-format Formato
O tipo de formato de log, text ou json. O valor predefinido é text.
--log-level string
Uma cadeia de caracteres que representa o nível de formato de log. Se não for especificado, o nível de formato de log será desativado.
-o, --output tipo
O tipo de saída do comando, text ou json. O valor predefinido é text.
-p, --profile string
O nome do perfil no arquivo ~/.databrickscfg a usar para executar o comando. Se esse sinalizador não for especificado, se ele existir, o perfil nomeado DEFAULT será usado.
--progress-format Formato
O formato para exibir logs de progresso: default, append, inplace, ou json
-t, --target string
Se aplicável, o destino do pacote a ser usado
--var strings
Defina valores para variáveis definidas em Bundle Config. Exemplo: --var="foo=bar"