Partager via


bundle groupe de commande

Remarque

Ces informations s’appliquent à Databricks CLI versions 0.205 et ultérieures. L’interface CLI Databricks est en préversion publique.

L’utilisation de l’interface CLI Databricks est soumise à la licence Databricks et à la notification de confidentialité Databricks, y compris les dispositions relatives aux données d’utilisation.

Le bundle groupe de commandes dans l’interface CLI Databricks contient des commandes pour la gestion des bundles de ressources Databricks. Les bundles de ressources Databricks vous permettent d’exprimer des projets en tant que code et de valider, déployer et exécuter de manière programmatique des workflows Azure Databricks tels que des jobs Azure Databricks, des pipelines déclaratifs Lakeflow Spark et des piles MLOps. Consultez Que sont les packs de ressources Databricks ?.

Remarque

Les commandes bundle utilisent les paramètres de databricks.yml pour l'authentification lorsqu'elles sont exécutées depuis le dossier bundle. Si vous souhaitez exécuter des commandes groupées avec une authentification différente à partir du dossier groupé, spécifiez un profil de configuration à l’aide de l’indicateur --profile (ou -p) et ne spécifiez pas un --target.

Vous pouvez également exécuter des commandes qui n’ont pas besoin de la même authentification que le bundle, depuis l’extérieur de son dossier.

déploiement de l’offre groupée databricks

Déployez un bundle sur l’espace de travail distant.

databricks bundle deploy [flags]

Cible et identité groupées

Pour déployer le bundle sur une cible spécifique, définissez l’option -t (ou --target) ainsi que le nom de la cible comme déclaré dans les fichiers de configuration du bundle. Si aucune option de commande n’est spécifiée, la cible par défaut telle qu’elle est déclarée dans les fichiers de configuration en pack est utilisée. Par exemple, pour une cible déclarée avec le nom dev :

databricks bundle deploy -t dev

Un pack peut être déployé sur plusieurs espaces de travail, tels que le développement, la préproduction et les espaces de travail de production. Fondamentalement, la root_path propriété est ce qui détermine l’identité unique d’un bundle, qui est par défaut ~/.bundle/${bundle.name}/${bundle.target}. Par conséquent, par défaut, l’identité d’un bundle est composée de l’identité du déployeur, du nom du bundle et du nom cible du bundle. S’ils sont identiques entre différents packs, le déploiement de ces packs interfère les uns avec les autres.

En outre, un déploiement en pack effectue le suivi des ressources qu’il crée dans l’espace de travail cible par leurs ID en tant qu’état stocké dans le système de fichier d’espace de travail. Les noms de ressources ne sont pas utilisés pour mettre en corrélation un déploiement en pack et une instance de ressource. Par conséquent :

  • Si une ressource dans la configuration de pack n’existe pas dans l’espace de travail cible, elle est créée.
  • Si une ressource dans la configuration de pack existe dans l’espace de travail cible, elle est mise à jour dans l’espace de travail.
  • Si une ressource est supprimée de la configuration du pack, elle est supprimée de l’espace de travail cible s’il a été déployé précédemment.
  • L’association d’une ressource à un bundle ne peut être oubliée que si vous modifiez le nom de l’offre groupée, la cible du bundle ou l’espace de travail. Vous pouvez exécuter bundle validate pour générer un résumé contenant ces valeurs.

Paramètres

--auto-approve

    Ignorez les approbations interactives qui peuvent être requises pour le déploiement.

-c, --cluster-id string

    Remplacez le cluster dans le déploiement par l’ID de cluster donné.

--fail-on-active-runs

    Échec s’il existe des travaux ou des pipelines en cours d’exécution dans le déploiement.

--force

    Forcer la validation de la branche Git.

--force-lock

    Forcer l’acquisition du verrou de déploiement.

Indicateurs globaux

Exemples

L’exemple suivant déploie un bundle à l’aide d’un ID de cluster spécifique :

databricks bundle deploy --cluster-id 0123-456789-abcdef

déploiement de bundle databricks

Commandes liées au déploiement.

databricks bundle deployment [command]

Commandes disponibles

  • bind - Lier une ressource définie par un bundle à une ressource existante dans l’espace de travail distant.
  • migrate - Migrer un paquet afin d'utiliser le moteur de déploiement direct.
  • unbind - Dissociez une ressource définie par un bundle à partir de sa ressource distante.

liaison de déploiement de bundle databricks

Lier des ressources définies par l’offre groupée à des ressources existantes dans l’espace de travail Azure Databricks afin qu’elles soient gérées par les bundles de ressources Databricks. Si vous liez une ressource, la ressource Azure Databricks existante dans l’espace de travail est mise à jour en fonction de la configuration définie dans le bundle auquel elle est liée après la suivante bundle deploy.

databricks bundle deployment bind KEY RESOURCE_ID [flags]

Bind ne recrée pas de données. Par exemple, si un lien est appliqué à un pipeline comportant des données dans un catalogue, vous pouvez effectuer le déploiement sur ce pipeline sans perdre les données existantes. En outre, vous n’avez, par exemple, pas besoin de recalculer la vue matérialisée, donc les pipelines n’ont pas besoin d’être réexécutés.

La commande bind doit être utilisée avec l’indicateur --target . Par exemple, lier votre déploiement de production à votre pipeline de production à l’aide de databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929

Conseil

Il est judicieux de vérifier la ressource dans l’espace de travail avant d’exécuter le lien.

Bind est pris en charge pour les ressources suivantes :

Pour les ressources prises en charge par la bundle generate commande, liez automatiquement la ressource après la génération à l’aide de l’option --bind .

Les arguments

KEY

    Clé de la ressource à lier

RESOURCE_ID

    ID de la ressource existante à lier à

Paramètres

--auto-approve

    Approuver automatiquement la liaison, au lieu d’inviter

--force-lock

    Forcer l’acquisition du verrou de déploiement

Indicateurs globaux

Exemples

La commande suivante lie la ressource hello_job à son équivalent distant dans l’espace de travail. La commande génère une diff et vous permet de refuser la liaison de ressources, mais si elle est confirmée, toutes les mises à jour apportées à la définition de tâche dans le pack sont appliquées à la tâche distante correspondante lors du prochain déploiement du pack.

databricks bundle deployment bind hello_job 6565621249

Migration du bundle de déploiement databricks

Importante

Cette fonctionnalité est expérimentale.

Migrez le bundle du moteur de déploiement Terraform vers le moteur de déploiement direct. Voir Migrer vers le moteur de déploiement direct. Pour terminer la migration, vous devez ensuite déployer le paquet.

Vous pouvez vérifier qu’une migration a réussi en exécutant databricks bundle plan. Consultez la configuration du bundle databricks.

databricks bundle deployment migrate [flags]

Les arguments

Aucun

Paramètres

Indicateurs globaux

Exemples

L’exemple suivant migre le bundle actuel pour utiliser le moteur de déploiement direct :

databricks bundle deployment migrate

Déploiement de bundle databricks nonbiné

Supprimez le lien entre la ressource dans un bundle et son équivalent distant dans un espace de travail.

databricks bundle deployment unbind KEY [flags]

Les arguments

KEY

    Clé de la ressource à dissocier

Paramètres

--force-lock

    Forcer l’acquisition du verrou de déploiement.

Indicateurs globaux

Exemples

L’exemple suivant annule la liaison de la hello_job ressource :

databricks bundle deployment unbind hello_job

databricks bundle détruire

Avertissement

La destruction d’un bundle supprime définitivement les travaux, pipelines et artefacts déployés précédemment dans ce bundle. Cette opération est irréversible.

Supprimez des travaux, des pipelines, d’autres ressources et des artefacts qui ont été déployés précédemment.

databricks bundle destroy [flags]

Remarque

L’identité d’un bundle est composée du nom du bundle, de la cible du bundle et de l’espace de travail. Si vous avez modifié l’un de ces éléments, puis que vous tentez de détruire un pack avant le déploiement, une erreur se produit.

Par défaut, vous êtes invité à confirmer la suppression définitive des travaux, pipelines et artefacts précédemment déployés. Pour ignorer ces invites et effectuer une suppression permanente automatique, ajoutez l’option --auto-approve à la commande bundle destroy.

Paramètres

--auto-approve

    Ignorer les approbations interactives pour supprimer des ressources et des fichiers

--force-lock

    Forcer l’acquisition du verrou de déploiement.

Indicateurs globaux

Exemples

La commande suivante supprime toutes les ressources et artefacts précédemment déployés qui sont définis dans les fichiers de configuration de bundle :

databricks bundle destroy

databricks bundle generate

Générez une configuration groupée pour une ressource qui existe déjà dans votre espace de travail Databricks. Les ressources suivantes sont prises en charge : application, tableau de bord, travail, pipeline.

Par défaut, cette commande génère un *.yml fichier pour la ressource dans le resources dossier du projet groupé et télécharge également tous les fichiers, tels que les notebooks, référencés dans la configuration.

Importante

La commande bundle generate est fournie de manière pratique pour générer automatiquement la configuration des ressources. Toutefois, si votre offre groupée inclut la configuration des ressources et que vous la déployez, Azure Databricks crée une ressource plutôt que de mettre à jour celle existante. Pour mettre à jour une ressource existante, vous devez soit utiliser l'indicateur --bind avec bundle generate, soit exécuter bundle deployment bind avant de déployer. Consultez la liaison de déploiement de bundle databricks.

databricks bundle generate [command]

Commandes disponibles

  • app - Générer une configuration groupée pour une application Databricks.
  • dashboard - Générer la configuration d’un tableau de bord.
  • job - Générer la configuration de bundle pour un travail.
  • pipeline - Générer la configuration d’un bundle pour un pipeline.

Paramètres

--key string

    Clé de ressource à utiliser pour la configuration générée

Indicateurs globaux

Commande : databricks bundle generate app (génère une application)

Générez une configuration groupée pour une application Databricks existante dans l’espace de travail.

databricks bundle generate app [flags]

Paramètres

--bind

    Liez automatiquement la ressource générée avec celle existante dans l’espace de travail.

-d, --config-dir string

    Chemin d’accès au répertoire dans lequel la configuration du bundle de sortie sera stockée (ressources par défaut)

--existing-app-name string

    Nom de l’application pour générer la configuration pour

-f, --force

    Forcer le remplacement des fichiers existants dans le répertoire de sortie

-s, --source-dir string

    Chemin d’accès au répertoire dans lequel les fichiers d’application seront stockés (par défaut « src/app »)

Indicateurs globaux

Exemples

L’exemple suivant génère la configuration d’une application existante nommée my-app. Vous pouvez obtenir le nom de l’application à partir de l’ongletApplications de > de l’interface utilisateur de l’espace de travail.

databricks bundle generate app --existing-app-name my-app

La commande suivante génère un nouveau hello_world.app.yml fichier dans le resources dossier du projet groupé et télécharge les fichiers de code de l’application, tels que le fichier de configuration de commande de l’application et le fichier app.yaml principal app.py. Par défaut, les fichiers de code sont copiés dans le dossier du src bundle.

databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
  apps:
    hello_world:
      name: hello-world
      description: A basic starter application.
      source_code_path: ../src/app

databricks bundle générer tableau de bord

Générez la configuration d’un tableau de bord existant dans l’espace de travail.

databricks bundle generate dashboard [flags]

Conseil

Pour mettre à jour le .lvdash.json fichier après avoir déjà déployé un tableau de bord, utilisez l’option --resource lorsque vous exécutez bundle generate dashboard pour générer ce fichier pour la ressource de tableau de bord existante. Pour interroger et récupérer en continu les mises à jour d’un tableau de bord, utilisez les options --force et --watch.

Paramètres

--bind

    Liez automatiquement la ressource générée avec celle existante dans l’espace de travail.

-s, --dashboard-dir string

    Répertoire dans lequel écrire la représentation du tableau de bord (par défaut « src »)

--existing-id string

    ID du tableau de bord pour lequel générer la configuration

--existing-path string

    Chemin d’accès de l’espace de travail du tableau de bord pour générer la configuration pour

-f, --force

    Forcer le remplacement des fichiers existants dans le répertoire de sortie

--resource string

    Clé de ressource du tableau de bord pour surveiller les modifications

-d, --resource-dir string

    Répertoire dans lequel écrire la configuration (ressources par défaut)

--watch

    Surveiller les modifications apportées au tableau de bord et mettre à jour la configuration

Indicateurs globaux

Exemples

L’exemple suivant génère la configuration par un ID de tableau de bord existant :

databricks bundle generate dashboard --existing-id abc123

Vous pouvez également générer la configuration d’un tableau de bord existant par chemin d’accès de l’espace de travail. Copiez le chemin d’accès de l’espace de travail pour un tableau de bord à partir de l’interface utilisateur de l’espace de travail.

Par exemple, la commande suivante génère un nouveau baby_gender_by_county.dashboard.yml fichier dans le resources dossier de projet groupé contenant le fichier YAML ci-dessous et télécharge le baby_gender_by_county.lvdash.json fichier dans le dossier du src projet.

databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
  dashboards:
    baby_gender_by_county:
      display_name: 'Baby gender by county'
      warehouse_id: aae11o8e6fe9zz79
      file_path: ../src/baby_gender_by_county.lvdash.json

databricks bundle créer un travail

Générez la configuration de bundle pour un travail.

Remarque

Actuellement, seules les tâches de notebook sont prises en charge par cette commande.

databricks bundle generate job [flags]

Paramètres

--bind

    Liez automatiquement la ressource générée avec celle existante dans l’espace de travail.

-d, --config-dir string

    Chemin d’accès d’ir où la configuration de sortie sera stockée (ressources par défaut)

--existing-job-id int

    ID de travail du travail pour générer la configuration pour

-f, --force

    Forcer le remplacement des fichiers existants dans le répertoire de sortie

-s, --source-dir string

    Chemin d’accès Dir dans lequel les fichiers téléchargés seront stockés (par défaut « src »)

Indicateurs globaux

Exemples

L’exemple suivant génère un nouveau hello_job.yml fichier dans le resources dossier de projet groupé contenant le fichier YAML ci-dessous et télécharge le simple_notebook.py fichier dans le dossier du src projet. Il lie également la ressource générée au travail existant dans l’espace de travail.

databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
  jobs:
    hello_job:
      name: 'Hello Job'
      tasks:
        - task_key: run_notebook
          email_notifications: {}
          notebook_task:
            notebook_path: ../src/simple_notebook.py
            source: WORKSPACE
          run_if: ALL_SUCCESS
      max_concurrent_runs: 1

databricks générer un paquet pipeline

Générez la configuration d’un bundle pour un pipeline.

databricks bundle generate pipeline [flags]

Paramètres

--bind

    Liez automatiquement la ressource générée avec celle existante dans l’espace de travail.

-d, --config-dir string

    Chemin d’accès d’ir où la configuration de sortie sera stockée (ressources par défaut)

--existing-pipeline-id string

    ID du pipeline à générer la configuration pour

-f, --force

    Forcer le remplacement des fichiers existants dans le répertoire de sortie

-s, --source-dir string

    Chemin d’accès Dir dans lequel les fichiers téléchargés seront stockés (par défaut « src »)

Indicateurs globaux

Exemples

L’exemple suivant génère la configuration d’un pipeline existant :

databricks bundle generate pipeline --existing-pipeline-id abc-123-def

databricks bundle init

Initialisez un nouveau bundle à l’aide d’un modèle de bundle. Les modèles peuvent être configurés pour inviter l’utilisateur à entrer des valeurs. Consultez Modèles de projets de packs de ressources Databricks.

databricks bundle init [TEMPLATE_PATH] [flags]

Les arguments

TEMPLATE_PATH

    Modèle à utiliser pour l’initialisation (facultatif)

Paramètres

--branch string

    Branche Git à utiliser pour l’initialisation de modèle

--config-file string

    Fichier JSON contenant des paires clé-valeur de paramètres d’entrée requis pour l’initialisation du modèle.

--output-dir string

    Répertoire dans lequel écrire le modèle initialisé.

--tag string

    Balise Git à utiliser pour l’initialisation de modèle

--template-dir string

    Chemin d’accès au répertoire dans un référentiel Git contenant le modèle.

Indicateurs globaux

Exemples

L’exemple suivant vous invite à obtenir la liste des modèles de bundle par défaut à partir desquels choisir :

databricks bundle init

L’exemple suivant initialise un bundle à l’aide du modèle Python par défaut :

databricks bundle init default-python

Pour créer un ensemble de ressources Databricks à l’aide d’un modèle Databricks Asset Bundle personnalisé, spécifiez le chemin d’accès du modèle personnalisé :

databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"

L’exemple suivant initialise un bundle à partir d’un dépôt Git :

databricks bundle init https://github.com/my/repository

L’exemple suivant initialise avec une branche spécifique :

databricks bundle init --branch main

bundle databricks ouvert

Accédez à une ressource groupée dans l’espace de travail, en spécifiant la ressource à ouvrir. Si une clé de ressource n’est pas spécifiée, cette commande génère une liste des ressources de l’offre groupée à partir de laquelle choisir.

databricks bundle open [flags]

Paramètres

--force-pull

    Ignorer le cache local et charger l’état à partir de l’espace de travail distant

Indicateurs globaux

Exemples

L’exemple suivant lance un navigateur et accède au baby_gender_by_county tableau de bord de l’offre groupée dans l’espace de travail Databricks configuré pour le bundle :

databricks bundle open baby_gender_by_county

plan d’offre groupée databricks

Affichez le plan de déploiement pour la configuration actuelle de l’offre groupée.

Cette commande génère le bundle et affiche les actions qui seront effectuées sur les ressources qui seraient déployées, sans apporter de modifications. Cela vous permet d’afficher un aperçu des modifications avant l’exécution bundle deploy.

databricks bundle plan [flags]

Paramètres

-c, --cluster-id string

    Remplacez le cluster dans le déploiement par l’ID de cluster donné.

--force

    Forcer la validation de la branche Git.

Indicateurs globaux

Exemples

L’exemple suivant génère le plan de déploiement d’un bundle qui génère une roue Python et définit un travail et un pipeline :

databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline

exécution de l’offre groupée databricks

Exécutez un travail, un pipeline ou un script. Si vous ne spécifiez pas de ressource, la commande propose des options avec travaux, pipelines et scripts définis parmi lesquels choisir. Vous pouvez également spécifier le travail, la clé de pipeline ou le nom de script déclaré dans les fichiers de configuration du paquet.

databricks bundle run [flags] [KEY]

Valider un pipeline

Si vous souhaitez exécuter une validation de pipeline, utilisez l’option --validate-only, comme indiqué dans l’exemple suivant :

databricks bundle run --validate-only my_pipeline

Passer des paramètres de travail

Pour transmettre desparamètres de tâche, utilisez l’option --params, suivie de paires clé-valeur séparées par des virgules, où la clé est le nom du paramètre. Par exemple, la commande suivante définit le paramètre avec le nom message sur HelloWorld pour la tâche hello_job :

databricks bundle run --params message=HelloWorld hello_job

Remarque

Comme indiqué dans les exemples suivants, vous pouvez transmettre des paramètres aux tâches de travail à l’aide des options de tâche de travail, mais l’option --params est la méthode recommandée pour transmettre des paramètres de travail. Une erreur se produit si les paramètres de travail sont spécifiés pour un travail qui n’a pas de paramètres de travail définis ou si les paramètres de tâche sont spécifiés pour un travail dont les paramètres de travail sont définis.

Vous pouvez également spécifier des arguments de mot clé ou positionnels. Si le travail spécifié utilise des paramètres de travail ou si le travail possède une tâche de notebook avec des paramètres, les noms d’indicateurs sont mappés aux noms de paramètres :

databricks bundle run hello_job -- --key1 value1 --key2 value2

Ou si le travail spécifié n’utilise pas de paramètres de travail et que le travail a une tâche de fichier Python ou une tâche de roue Python :

databricks bundle run my_job -- value1 value2 value3

Pour obtenir un exemple de définition de travail avec des paramètres, consultez Travail avec paramètres.

Exécuter des scripts

Pour exécuter des scripts tels que des tests d’intégration avec les informations d’identification d’authentification configurées d’un bundle, vous pouvez exécuter des scripts inline ou exécuter un script défini dans la configuration du bundle. Les scripts sont exécutés à l’aide du même contexte d’authentification configuré dans le bundle.

  • Ajoutez un trait d’union double (--) après bundle run pour exécuter des scripts inline. Par exemple, la commande suivante génère le répertoire de travail actuel de l’utilisateur actuel :

    databricks bundle run -- python3 -c 'import os; print(os.getcwd())'
    
  • Vous pouvez également définir un script dans le scripts mappage dans votre configuration de bundle, puis utiliser bundle run pour exécuter le script :

    scripts:
      my_script:
        content: python3 -c 'import os; print(os.getcwd())'
    
    databricks bundle run my_script
    

    Pour plus d'informations concernant la configuration de scripts, consultez les scripts et les scripts.

Les informations d’identification d’authentification du pack sont passées aux processus enfants en utilisant des variables d’environnement. Consultez l’authentification unifiée Databricks.

Les arguments

KEY

    Identificateur unique de la ressource à exécuter (facultatif)

Paramètres

--no-wait

    N’attendez pas la fin de l’exécution.

--restart

    Redémarrez l’exécution si elle est déjà en cours d’exécution.

Indicateurs globaux

Indicateurs de travail

Les indicateurs suivants sont des indicateurs de paramètre au niveau du travail. Consultez Configurer les paramètres d’un travail.

--params stringToString

    paires k=v séparées par des virgules pour les paramètres de travail (par défaut [])

Indicateurs de tâche de travail

Les indicateurs suivants sont des indicateurs de paramètre au niveau de la tâche. Consultez Configurer les paramètres de tâche. Databricks recommande d’utiliser des paramètres au niveau du travail (--params) sur des paramètres au niveau de la tâche.

--dbt-commands strings

    Liste des commandes à exécuter pour les travaux avec des tâches DBT.

--jar-params strings

    Liste des paramètres pour les travaux avec des tâches JAR Spark.

--notebook-params stringToString

    Mappage des clés aux valeurs des travaux avec des tâches de notebook. (par défaut [])

--pipeline-params stringToString

    Mappage des clés aux valeurs des travaux avec des tâches de pipeline. (par défaut [])

--python-named-params stringToString

    Mappage des clés aux valeurs des travaux avec des tâches de roue Python. (par défaut [])

--python-params strings

    Liste des paramètres des travaux avec des tâches Python.

--spark-submit-params strings

    Liste des paramètres pour les travaux avec des tâches d’envoi Spark.

--sql-params stringToString

    Mappage des clés aux valeurs des travaux avec des tâches SQL. (par défaut [])

Indicateurs de pipeline

Les indicateurs suivants sont des indicateurs de pipeline.

--full-refresh strings

    Liste des tables à réinitialiser et à recompiler.

--full-refresh-all

    Effectuez une réinitialisation complète du graphe et recompilez.

--refresh strings

    Liste des tables à mettre à jour.

--refresh-all

    Effectuez une mise à jour complète du graphe.

--validate-only

    Effectuez une mise à jour pour valider la correction du graphique.

Exemples

L’exemple suivant exécute un travail hello_job dans la cible par défaut :

databricks bundle run hello_job

L’exemple suivant exécute un travail hello_job dans le contexte d’une cible déclarée avec le nom dev:

databricks bundle run -t dev hello_job

L’exemple suivant annule et redémarre une exécution de travail existante :

databricks bundle run --restart hello_job

L’exemple suivant exécute un pipeline avec actualisation complète :

databricks bundle run my_pipeline --full-refresh-all

L’exemple suivant exécute une commande dans le contexte de bundle :

databricks bundle run -- echo "hello, world"

schéma de bundle databricks

Affichez le schéma JSON pour la configuration de l’offre groupée.

databricks bundle schema [flags]

Paramètres

Indicateurs globaux

Exemples

L’exemple suivant génère le schéma JSON pour la configuration de bundle :

databricks bundle schema

Pour générer le schéma de configuration de bundle en tant que fichier JSON, exécutez la bundle schema commande et redirigez la sortie vers un fichier JSON. Par exemple, vous pouvez générer un fichier nommé bundle_config_schema.json dans le répertoire actif :

databricks bundle schema > bundle_config_schema.json

résumé de l’offre groupée databricks

Générez un résumé de l’identité et des ressources d’un bundle, y compris des liens profonds pour les ressources afin que vous puissiez facilement accéder à la ressource dans l’espace de travail Databricks.

databricks bundle summary [flags]

Conseil

Vous pouvez également utiliser bundle open pour accéder à une ressource dans l’espace de travail Databricks. Consultez l’offre groupée databricks ouverte.

Paramètres

--force-pull

    Ignorer le cache local et charger l’état à partir de l’espace de travail distant

Indicateurs globaux

Exemples

L’exemple suivant génère un résumé des ressources déployées d’un bundle :

databricks bundle summary

La sortie suivante est le résumé d’un bundle nommé my_pipeline_bundle qui définit un travail et un pipeline :

Name: my_pipeline_bundle
Target: dev
Workspace:
  Host: https://myworkspace.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
  Jobs:
    my_project_job:
      Name: [dev someone] my_project_job
      URL:  https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
  Pipelines:
    my_project_pipeline:
      Name: [dev someone] my_project_pipeline
      URL:  https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999

synchronisation de bundle databricks

Effectuez une synchronisation unidirectionnelle des modifications de fichier d’un bundle dans un répertoire de système de fichiers local, vers un répertoire au sein d’un espace de travail Azure Databricks distant.

Remarque

bundle sync Les commandes ne peuvent pas synchroniser les modifications de fichier à partir d’un répertoire au sein d’un espace de travail Azure Databricks distant vers un répertoire au sein d’un système de fichiers local.

databricks bundle sync [flags]

databricks bundle sync Les commandes fonctionnent de la même façon que databricks sync les commandes et sont fournies pour faciliter la productivité. Pour plus d’informations sur l’utilisation des commandes, consultez sync la commande.

Paramètres

--dry-run

    Simuler l’exécution de la synchronisation sans apporter de modifications réelles

--full

    Effectuer une synchronisation complète (la valeur par défaut est incrémentielle)

--interval duration

    Intervalle d’interrogation du système de fichiers (pour --watch) (par défaut 1s)

--output type

    Type du format de sortie

--watch

    Regarder le système de fichiers local pour les modifications

Indicateurs globaux

Exemples

L’exemple suivant effectue une synchronisation d’exécution sèche :

databricks bundle sync --dry-run

L’exemple suivant montre les modifications et les synchronisations automatiquement :

databricks bundle sync --watch

L’exemple suivant effectue une synchronisation complète :

databricks bundle sync --full

validation de l’offre groupée databricks

Vérifiez que les fichiers de configuration de bundle sont correctement synchronisés.

databricks bundle validate [flags]

Par défaut, cette commande retourne un résumé de l’identité de pack :

Name: MyBundle
Target: dev
Workspace:
  Host: https://my-host.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/MyBundle/dev

Validation OK!

Remarque

La bundle validate commande génère des avertissements si les propriétés de ressource sont définies dans les fichiers de configuration de bundle introuvables dans le schéma de l’objet correspondant.

Si vous souhaitez uniquement générer un résumé de l’identité et des ressources de l’offre groupée, utilisez le résumé de l’offre groupée.

Paramètres

Indicateurs globaux

Exemples

L’exemple suivant valide la configuration de l’offre groupée :

databricks bundle validate

Indicateurs globaux

--debug

  Faut-il activer la journalisation du débogage ?

-h ou --help

    Affiche l’aide pour l’interface CLI de Databricks, le groupe de commandes associé ou la commande concernée.

--log-file chaîne de caractères

    Chaîne représentant le fichier utilisé pour écrire les logs de sortie. Si cet indicateur n’est pas défini, les journaux de sortie sont écrits par défaut dans stderr.

--log-format format

    Type de format de journal : text ou json. La valeur par défaut est text.

--log-level chaîne de caractères

    Chaîne représentant le niveau de journalisation. Si cet indicateur n’est pas défini, le niveau de format de journal est désactivé.

Type -o, --output

    Type de sortie de commande, text ou json. La valeur par défaut est text.

-p, --profile chaîne de caractères

    Nom du profil dans le ~/.databrickscfg fichier à utiliser pour exécuter la commande. Si cet indicateur n’est pas spécifié, s’il existe, le profil nommé DEFAULT est utilisé.

--progress-format format

    Format permettant d’afficher les journaux de progression : default, append, inplace ou json

-t, --target chaîne de caractères

    Le cas échéant, la cible d'ensemble à utiliser

--var strings

    définir des valeurs pour les variables définies dans la configuration du bundle. Exemple: --var="foo=bar"