Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
Ces informations s’appliquent à Databricks CLI versions 0.205 et ultérieures. L’interface CLI Databricks est en préversion publique.
L’utilisation de l’interface CLI Databricks est soumise à la licence Databricks et à la notification de confidentialité Databricks, y compris les dispositions relatives aux données d’utilisation.
Le bundle groupe de commandes dans l’interface CLI Databricks contient des commandes pour la gestion des bundles de ressources Databricks. Les bundles de ressources Databricks vous permettent d’exprimer des projets en tant que code et de valider, déployer et exécuter de manière programmatique des workflows Azure Databricks tels que des jobs Azure Databricks, des pipelines déclaratifs Lakeflow Spark et des piles MLOps. Consultez Que sont les packs de ressources Databricks ?.
Remarque
Les commandes bundle utilisent les paramètres de databricks.yml pour l'authentification lorsqu'elles sont exécutées depuis le dossier bundle. Si vous souhaitez exécuter des commandes groupées avec une authentification différente à partir du dossier groupé, spécifiez un profil de configuration à l’aide de l’indicateur --profile (ou -p) et ne spécifiez pas un --target.
Vous pouvez également exécuter des commandes qui n’ont pas besoin de la même authentification que le bundle, depuis l’extérieur de son dossier.
déploiement de l’offre groupée databricks
Déployez un bundle sur l’espace de travail distant.
databricks bundle deploy [flags]
Cible et identité groupées
Pour déployer le bundle sur une cible spécifique, définissez l’option -t (ou --target) ainsi que le nom de la cible comme déclaré dans les fichiers de configuration du bundle. Si aucune option de commande n’est spécifiée, la cible par défaut telle qu’elle est déclarée dans les fichiers de configuration en pack est utilisée. Par exemple, pour une cible déclarée avec le nom dev :
databricks bundle deploy -t dev
Un pack peut être déployé sur plusieurs espaces de travail, tels que le développement, la préproduction et les espaces de travail de production. Fondamentalement, la root_path propriété est ce qui détermine l’identité unique d’un bundle, qui est par défaut ~/.bundle/${bundle.name}/${bundle.target}. Par conséquent, par défaut, l’identité d’un bundle est composée de l’identité du déployeur, du nom du bundle et du nom cible du bundle. S’ils sont identiques entre différents packs, le déploiement de ces packs interfère les uns avec les autres.
En outre, un déploiement en pack effectue le suivi des ressources qu’il crée dans l’espace de travail cible par leurs ID en tant qu’état stocké dans le système de fichier d’espace de travail. Les noms de ressources ne sont pas utilisés pour mettre en corrélation un déploiement en pack et une instance de ressource. Par conséquent :
- Si une ressource dans la configuration de pack n’existe pas dans l’espace de travail cible, elle est créée.
- Si une ressource dans la configuration de pack existe dans l’espace de travail cible, elle est mise à jour dans l’espace de travail.
- Si une ressource est supprimée de la configuration du pack, elle est supprimée de l’espace de travail cible s’il a été déployé précédemment.
- L’association d’une ressource à un bundle ne peut être oubliée que si vous modifiez le nom de l’offre groupée, la cible du bundle ou l’espace de travail. Vous pouvez exécuter
bundle validatepour générer un résumé contenant ces valeurs.
Paramètres
--auto-approve
Ignorez les approbations interactives qui peuvent être requises pour le déploiement.
-c, --cluster-id string
Remplacez le cluster dans le déploiement par l’ID de cluster donné.
--fail-on-active-runs
Échec s’il existe des travaux ou des pipelines en cours d’exécution dans le déploiement.
--force
Forcer la validation de la branche Git.
--force-lock
Forcer l’acquisition du verrou de déploiement.
Exemples
L’exemple suivant déploie un bundle à l’aide d’un ID de cluster spécifique :
databricks bundle deploy --cluster-id 0123-456789-abcdef
déploiement de bundle databricks
Commandes liées au déploiement.
databricks bundle deployment [command]
Commandes disponibles
-
bind- Lier une ressource définie par un bundle à une ressource existante dans l’espace de travail distant. -
migrate- Migrer un paquet afin d'utiliser le moteur de déploiement direct. -
unbind- Dissociez une ressource définie par un bundle à partir de sa ressource distante.
liaison de déploiement de bundle databricks
Lier des ressources définies par l’offre groupée à des ressources existantes dans l’espace de travail Azure Databricks afin qu’elles soient gérées par les bundles de ressources Databricks. Si vous liez une ressource, la ressource Azure Databricks existante dans l’espace de travail est mise à jour en fonction de la configuration définie dans le bundle auquel elle est liée après la suivante bundle deploy.
databricks bundle deployment bind KEY RESOURCE_ID [flags]
Bind ne recrée pas de données. Par exemple, si un lien est appliqué à un pipeline comportant des données dans un catalogue, vous pouvez effectuer le déploiement sur ce pipeline sans perdre les données existantes. En outre, vous n’avez, par exemple, pas besoin de recalculer la vue matérialisée, donc les pipelines n’ont pas besoin d’être réexécutés.
La commande bind doit être utilisée avec l’indicateur --target . Par exemple, lier votre déploiement de production à votre pipeline de production à l’aide de databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929
Conseil
Il est judicieux de vérifier la ressource dans l’espace de travail avant d’exécuter le lien.
Bind est pris en charge pour les ressources suivantes :
- application
- Cluster
- tableau de bord
- emploi
- model_serving_endpoint
- pipeline
- moniteur_de_qualité
- modèle_enregistré
- schéma
- volume
Pour les ressources prises en charge par la bundle generate commande, liez automatiquement la ressource après la génération à l’aide de l’option --bind .
Les arguments
KEY
Clé de la ressource à lier
RESOURCE_ID
ID de la ressource existante à lier à
Paramètres
--auto-approve
Approuver automatiquement la liaison, au lieu d’inviter
--force-lock
Forcer l’acquisition du verrou de déploiement
Exemples
La commande suivante lie la ressource hello_job à son équivalent distant dans l’espace de travail. La commande génère une diff et vous permet de refuser la liaison de ressources, mais si elle est confirmée, toutes les mises à jour apportées à la définition de tâche dans le pack sont appliquées à la tâche distante correspondante lors du prochain déploiement du pack.
databricks bundle deployment bind hello_job 6565621249
Migration du bundle de déploiement databricks
Importante
Cette fonctionnalité est expérimentale.
Migrez le bundle du moteur de déploiement Terraform vers le moteur de déploiement direct. Voir Migrer vers le moteur de déploiement direct. Pour terminer la migration, vous devez ensuite déployer le paquet.
Vous pouvez vérifier qu’une migration a réussi en exécutant databricks bundle plan. Consultez la configuration du bundle databricks.
databricks bundle deployment migrate [flags]
Les arguments
Aucun
Paramètres
Exemples
L’exemple suivant migre le bundle actuel pour utiliser le moteur de déploiement direct :
databricks bundle deployment migrate
Déploiement de bundle databricks nonbiné
Supprimez le lien entre la ressource dans un bundle et son équivalent distant dans un espace de travail.
databricks bundle deployment unbind KEY [flags]
Les arguments
KEY
Clé de la ressource à dissocier
Paramètres
--force-lock
Forcer l’acquisition du verrou de déploiement.
Exemples
L’exemple suivant annule la liaison de la hello_job ressource :
databricks bundle deployment unbind hello_job
databricks bundle détruire
Avertissement
La destruction d’un bundle supprime définitivement les travaux, pipelines et artefacts déployés précédemment dans ce bundle. Cette opération est irréversible.
Supprimez des travaux, des pipelines, d’autres ressources et des artefacts qui ont été déployés précédemment.
databricks bundle destroy [flags]
Remarque
L’identité d’un bundle est composée du nom du bundle, de la cible du bundle et de l’espace de travail. Si vous avez modifié l’un de ces éléments, puis que vous tentez de détruire un pack avant le déploiement, une erreur se produit.
Par défaut, vous êtes invité à confirmer la suppression définitive des travaux, pipelines et artefacts précédemment déployés. Pour ignorer ces invites et effectuer une suppression permanente automatique, ajoutez l’option --auto-approve à la commande bundle destroy.
Paramètres
--auto-approve
Ignorer les approbations interactives pour supprimer des ressources et des fichiers
--force-lock
Forcer l’acquisition du verrou de déploiement.
Exemples
La commande suivante supprime toutes les ressources et artefacts précédemment déployés qui sont définis dans les fichiers de configuration de bundle :
databricks bundle destroy
databricks bundle generate
Générez une configuration groupée pour une ressource qui existe déjà dans votre espace de travail Databricks. Les ressources suivantes sont prises en charge : application, tableau de bord, travail, pipeline.
Par défaut, cette commande génère un *.yml fichier pour la ressource dans le resources dossier du projet groupé et télécharge également tous les fichiers, tels que les notebooks, référencés dans la configuration.
Importante
La commande bundle generate est fournie de manière pratique pour générer automatiquement la configuration des ressources. Toutefois, si votre offre groupée inclut la configuration des ressources et que vous la déployez, Azure Databricks crée une ressource plutôt que de mettre à jour celle existante. Pour mettre à jour une ressource existante, vous devez soit utiliser l'indicateur --bind avec bundle generate, soit exécuter bundle deployment bind avant de déployer. Consultez la liaison de déploiement de bundle databricks.
databricks bundle generate [command]
Commandes disponibles
-
app- Générer une configuration groupée pour une application Databricks. -
dashboard- Générer la configuration d’un tableau de bord. -
job- Générer la configuration de bundle pour un travail. -
pipeline- Générer la configuration d’un bundle pour un pipeline.
Paramètres
--key string
Clé de ressource à utiliser pour la configuration générée
Commande : databricks bundle generate app (génère une application)
Générez une configuration groupée pour une application Databricks existante dans l’espace de travail.
databricks bundle generate app [flags]
Paramètres
--bind
Liez automatiquement la ressource générée avec celle existante dans l’espace de travail.
-d, --config-dir string
Chemin d’accès au répertoire dans lequel la configuration du bundle de sortie sera stockée (ressources par défaut)
--existing-app-name string
Nom de l’application pour générer la configuration pour
-f, --force
Forcer le remplacement des fichiers existants dans le répertoire de sortie
-s, --source-dir string
Chemin d’accès au répertoire dans lequel les fichiers d’application seront stockés (par défaut « src/app »)
Exemples
L’exemple suivant génère la configuration d’une application existante nommée my-app. Vous pouvez obtenir le nom de l’application à partir de l’ongletApplications de > de l’interface utilisateur de l’espace de travail.
databricks bundle generate app --existing-app-name my-app
La commande suivante génère un nouveau hello_world.app.yml fichier dans le resources dossier du projet groupé et télécharge les fichiers de code de l’application, tels que le fichier de configuration de commande de l’application et le fichier app.yaml principal app.py. Par défaut, les fichiers de code sont copiés dans le dossier du src bundle.
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
databricks bundle générer tableau de bord
Générez la configuration d’un tableau de bord existant dans l’espace de travail.
databricks bundle generate dashboard [flags]
Conseil
Pour mettre à jour le .lvdash.json fichier après avoir déjà déployé un tableau de bord, utilisez l’option --resource lorsque vous exécutez bundle generate dashboard pour générer ce fichier pour la ressource de tableau de bord existante. Pour interroger et récupérer en continu les mises à jour d’un tableau de bord, utilisez les options --force et --watch.
Paramètres
--bind
Liez automatiquement la ressource générée avec celle existante dans l’espace de travail.
-s, --dashboard-dir string
Répertoire dans lequel écrire la représentation du tableau de bord (par défaut « src »)
--existing-id string
ID du tableau de bord pour lequel générer la configuration
--existing-path string
Chemin d’accès de l’espace de travail du tableau de bord pour générer la configuration pour
-f, --force
Forcer le remplacement des fichiers existants dans le répertoire de sortie
--resource string
Clé de ressource du tableau de bord pour surveiller les modifications
-d, --resource-dir string
Répertoire dans lequel écrire la configuration (ressources par défaut)
--watch
Surveiller les modifications apportées au tableau de bord et mettre à jour la configuration
Exemples
L’exemple suivant génère la configuration par un ID de tableau de bord existant :
databricks bundle generate dashboard --existing-id abc123
Vous pouvez également générer la configuration d’un tableau de bord existant par chemin d’accès de l’espace de travail. Copiez le chemin d’accès de l’espace de travail pour un tableau de bord à partir de l’interface utilisateur de l’espace de travail.
Par exemple, la commande suivante génère un nouveau baby_gender_by_county.dashboard.yml fichier dans le resources dossier de projet groupé contenant le fichier YAML ci-dessous et télécharge le baby_gender_by_county.lvdash.json fichier dans le dossier du src projet.
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
databricks bundle créer un travail
Générez la configuration de bundle pour un travail.
Remarque
Actuellement, seules les tâches de notebook sont prises en charge par cette commande.
databricks bundle generate job [flags]
Paramètres
--bind
Liez automatiquement la ressource générée avec celle existante dans l’espace de travail.
-d, --config-dir string
Chemin d’accès d’ir où la configuration de sortie sera stockée (ressources par défaut)
--existing-job-id int
ID de travail du travail pour générer la configuration pour
-f, --force
Forcer le remplacement des fichiers existants dans le répertoire de sortie
-s, --source-dir string
Chemin d’accès Dir dans lequel les fichiers téléchargés seront stockés (par défaut « src »)
Exemples
L’exemple suivant génère un nouveau hello_job.yml fichier dans le resources dossier de projet groupé contenant le fichier YAML ci-dessous et télécharge le simple_notebook.py fichier dans le dossier du src projet. Il lie également la ressource générée au travail existant dans l’espace de travail.
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
databricks générer un paquet pipeline
Générez la configuration d’un bundle pour un pipeline.
databricks bundle generate pipeline [flags]
Paramètres
--bind
Liez automatiquement la ressource générée avec celle existante dans l’espace de travail.
-d, --config-dir string
Chemin d’accès d’ir où la configuration de sortie sera stockée (ressources par défaut)
--existing-pipeline-id string
ID du pipeline à générer la configuration pour
-f, --force
Forcer le remplacement des fichiers existants dans le répertoire de sortie
-s, --source-dir string
Chemin d’accès Dir dans lequel les fichiers téléchargés seront stockés (par défaut « src »)
Exemples
L’exemple suivant génère la configuration d’un pipeline existant :
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
databricks bundle init
Initialisez un nouveau bundle à l’aide d’un modèle de bundle. Les modèles peuvent être configurés pour inviter l’utilisateur à entrer des valeurs. Consultez Modèles de projets de packs de ressources Databricks.
databricks bundle init [TEMPLATE_PATH] [flags]
Les arguments
TEMPLATE_PATH
Modèle à utiliser pour l’initialisation (facultatif)
Paramètres
--branch string
Branche Git à utiliser pour l’initialisation de modèle
--config-file string
Fichier JSON contenant des paires clé-valeur de paramètres d’entrée requis pour l’initialisation du modèle.
--output-dir string
Répertoire dans lequel écrire le modèle initialisé.
--tag string
Balise Git à utiliser pour l’initialisation de modèle
--template-dir string
Chemin d’accès au répertoire dans un référentiel Git contenant le modèle.
Exemples
L’exemple suivant vous invite à obtenir la liste des modèles de bundle par défaut à partir desquels choisir :
databricks bundle init
L’exemple suivant initialise un bundle à l’aide du modèle Python par défaut :
databricks bundle init default-python
Pour créer un ensemble de ressources Databricks à l’aide d’un modèle Databricks Asset Bundle personnalisé, spécifiez le chemin d’accès du modèle personnalisé :
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
L’exemple suivant initialise un bundle à partir d’un dépôt Git :
databricks bundle init https://github.com/my/repository
L’exemple suivant initialise avec une branche spécifique :
databricks bundle init --branch main
bundle databricks ouvert
Accédez à une ressource groupée dans l’espace de travail, en spécifiant la ressource à ouvrir. Si une clé de ressource n’est pas spécifiée, cette commande génère une liste des ressources de l’offre groupée à partir de laquelle choisir.
databricks bundle open [flags]
Paramètres
--force-pull
Ignorer le cache local et charger l’état à partir de l’espace de travail distant
Exemples
L’exemple suivant lance un navigateur et accède au baby_gender_by_county tableau de bord de l’offre groupée dans l’espace de travail Databricks configuré pour le bundle :
databricks bundle open baby_gender_by_county
plan d’offre groupée databricks
Affichez le plan de déploiement pour la configuration actuelle de l’offre groupée.
Cette commande génère le bundle et affiche les actions qui seront effectuées sur les ressources qui seraient déployées, sans apporter de modifications. Cela vous permet d’afficher un aperçu des modifications avant l’exécution bundle deploy.
databricks bundle plan [flags]
Paramètres
-c, --cluster-id string
Remplacez le cluster dans le déploiement par l’ID de cluster donné.
--force
Forcer la validation de la branche Git.
Exemples
L’exemple suivant génère le plan de déploiement d’un bundle qui génère une roue Python et définit un travail et un pipeline :
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
exécution de l’offre groupée databricks
Exécutez un travail, un pipeline ou un script. Si vous ne spécifiez pas de ressource, la commande propose des options avec travaux, pipelines et scripts définis parmi lesquels choisir. Vous pouvez également spécifier le travail, la clé de pipeline ou le nom de script déclaré dans les fichiers de configuration du paquet.
databricks bundle run [flags] [KEY]
Valider un pipeline
Si vous souhaitez exécuter une validation de pipeline, utilisez l’option --validate-only, comme indiqué dans l’exemple suivant :
databricks bundle run --validate-only my_pipeline
Passer des paramètres de travail
Pour transmettre desparamètres de tâche, utilisez l’option --params, suivie de paires clé-valeur séparées par des virgules, où la clé est le nom du paramètre. Par exemple, la commande suivante définit le paramètre avec le nom message sur HelloWorld pour la tâche hello_job :
databricks bundle run --params message=HelloWorld hello_job
Remarque
Comme indiqué dans les exemples suivants, vous pouvez transmettre des paramètres aux tâches de travail à l’aide des options de tâche de travail, mais l’option --params est la méthode recommandée pour transmettre des paramètres de travail. Une erreur se produit si les paramètres de travail sont spécifiés pour un travail qui n’a pas de paramètres de travail définis ou si les paramètres de tâche sont spécifiés pour un travail dont les paramètres de travail sont définis.
Vous pouvez également spécifier des arguments de mot clé ou positionnels. Si le travail spécifié utilise des paramètres de travail ou si le travail possède une tâche de notebook avec des paramètres, les noms d’indicateurs sont mappés aux noms de paramètres :
databricks bundle run hello_job -- --key1 value1 --key2 value2
Ou si le travail spécifié n’utilise pas de paramètres de travail et que le travail a une tâche de fichier Python ou une tâche de roue Python :
databricks bundle run my_job -- value1 value2 value3
Pour obtenir un exemple de définition de travail avec des paramètres, consultez Travail avec paramètres.
Exécuter des scripts
Pour exécuter des scripts tels que des tests d’intégration avec les informations d’identification d’authentification configurées d’un bundle, vous pouvez exécuter des scripts inline ou exécuter un script défini dans la configuration du bundle. Les scripts sont exécutés à l’aide du même contexte d’authentification configuré dans le bundle.
Ajoutez un trait d’union double (
--) aprèsbundle runpour exécuter des scripts inline. Par exemple, la commande suivante génère le répertoire de travail actuel de l’utilisateur actuel :databricks bundle run -- python3 -c 'import os; print(os.getcwd())'Vous pouvez également définir un script dans le
scriptsmappage dans votre configuration de bundle, puis utiliserbundle runpour exécuter le script :scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptPour plus d'informations concernant la configuration de
scripts, consultez les scripts et les scripts.
Les informations d’identification d’authentification du pack sont passées aux processus enfants en utilisant des variables d’environnement. Consultez l’authentification unifiée Databricks.
Les arguments
KEY
Identificateur unique de la ressource à exécuter (facultatif)
Paramètres
--no-wait
N’attendez pas la fin de l’exécution.
--restart
Redémarrez l’exécution si elle est déjà en cours d’exécution.
Indicateurs de travail
Les indicateurs suivants sont des indicateurs de paramètre au niveau du travail. Consultez Configurer les paramètres d’un travail.
--params stringToString
paires k=v séparées par des virgules pour les paramètres de travail (par défaut [])
Indicateurs de tâche de travail
Les indicateurs suivants sont des indicateurs de paramètre au niveau de la tâche. Consultez Configurer les paramètres de tâche. Databricks recommande d’utiliser des paramètres au niveau du travail (--params) sur des paramètres au niveau de la tâche.
--dbt-commands strings
Liste des commandes à exécuter pour les travaux avec des tâches DBT.
--jar-params strings
Liste des paramètres pour les travaux avec des tâches JAR Spark.
--notebook-params stringToString
Mappage des clés aux valeurs des travaux avec des tâches de notebook. (par défaut [])
--pipeline-params stringToString
Mappage des clés aux valeurs des travaux avec des tâches de pipeline. (par défaut [])
--python-named-params stringToString
Mappage des clés aux valeurs des travaux avec des tâches de roue Python. (par défaut [])
--python-params strings
Liste des paramètres des travaux avec des tâches Python.
--spark-submit-params strings
Liste des paramètres pour les travaux avec des tâches d’envoi Spark.
--sql-params stringToString
Mappage des clés aux valeurs des travaux avec des tâches SQL. (par défaut [])
Indicateurs de pipeline
Les indicateurs suivants sont des indicateurs de pipeline.
--full-refresh strings
Liste des tables à réinitialiser et à recompiler.
--full-refresh-all
Effectuez une réinitialisation complète du graphe et recompilez.
--refresh strings
Liste des tables à mettre à jour.
--refresh-all
Effectuez une mise à jour complète du graphe.
--validate-only
Effectuez une mise à jour pour valider la correction du graphique.
Exemples
L’exemple suivant exécute un travail hello_job dans la cible par défaut :
databricks bundle run hello_job
L’exemple suivant exécute un travail hello_job dans le contexte d’une cible déclarée avec le nom dev:
databricks bundle run -t dev hello_job
L’exemple suivant annule et redémarre une exécution de travail existante :
databricks bundle run --restart hello_job
L’exemple suivant exécute un pipeline avec actualisation complète :
databricks bundle run my_pipeline --full-refresh-all
L’exemple suivant exécute une commande dans le contexte de bundle :
databricks bundle run -- echo "hello, world"
schéma de bundle databricks
Affichez le schéma JSON pour la configuration de l’offre groupée.
databricks bundle schema [flags]
Paramètres
Exemples
L’exemple suivant génère le schéma JSON pour la configuration de bundle :
databricks bundle schema
Pour générer le schéma de configuration de bundle en tant que fichier JSON, exécutez la bundle schema commande et redirigez la sortie vers un fichier JSON. Par exemple, vous pouvez générer un fichier nommé bundle_config_schema.json dans le répertoire actif :
databricks bundle schema > bundle_config_schema.json
résumé de l’offre groupée databricks
Générez un résumé de l’identité et des ressources d’un bundle, y compris des liens profonds pour les ressources afin que vous puissiez facilement accéder à la ressource dans l’espace de travail Databricks.
databricks bundle summary [flags]
Conseil
Vous pouvez également utiliser bundle open pour accéder à une ressource dans l’espace de travail Databricks. Consultez l’offre groupée databricks ouverte.
Paramètres
--force-pull
Ignorer le cache local et charger l’état à partir de l’espace de travail distant
Exemples
L’exemple suivant génère un résumé des ressources déployées d’un bundle :
databricks bundle summary
La sortie suivante est le résumé d’un bundle nommé my_pipeline_bundle qui définit un travail et un pipeline :
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
synchronisation de bundle databricks
Effectuez une synchronisation unidirectionnelle des modifications de fichier d’un bundle dans un répertoire de système de fichiers local, vers un répertoire au sein d’un espace de travail Azure Databricks distant.
Remarque
bundle sync Les commandes ne peuvent pas synchroniser les modifications de fichier à partir d’un répertoire au sein d’un espace de travail Azure Databricks distant vers un répertoire au sein d’un système de fichiers local.
databricks bundle sync [flags]
databricks bundle sync Les commandes fonctionnent de la même façon que databricks sync les commandes et sont fournies pour faciliter la productivité. Pour plus d’informations sur l’utilisation des commandes, consultez sync la commande.
Paramètres
--dry-run
Simuler l’exécution de la synchronisation sans apporter de modifications réelles
--full
Effectuer une synchronisation complète (la valeur par défaut est incrémentielle)
--interval duration
Intervalle d’interrogation du système de fichiers (pour --watch) (par défaut 1s)
--output type
Type du format de sortie
--watch
Regarder le système de fichiers local pour les modifications
Exemples
L’exemple suivant effectue une synchronisation d’exécution sèche :
databricks bundle sync --dry-run
L’exemple suivant montre les modifications et les synchronisations automatiquement :
databricks bundle sync --watch
L’exemple suivant effectue une synchronisation complète :
databricks bundle sync --full
validation de l’offre groupée databricks
Vérifiez que les fichiers de configuration de bundle sont correctement synchronisés.
databricks bundle validate [flags]
Par défaut, cette commande retourne un résumé de l’identité de pack :
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
Remarque
La bundle validate commande génère des avertissements si les propriétés de ressource sont définies dans les fichiers de configuration de bundle introuvables dans le schéma de l’objet correspondant.
Si vous souhaitez uniquement générer un résumé de l’identité et des ressources de l’offre groupée, utilisez le résumé de l’offre groupée.
Paramètres
Exemples
L’exemple suivant valide la configuration de l’offre groupée :
databricks bundle validate
Indicateurs globaux
--debug
Faut-il activer la journalisation du débogage ?
-h ou --help
Affiche l’aide pour l’interface CLI de Databricks, le groupe de commandes associé ou la commande concernée.
--log-file chaîne de caractères
Chaîne représentant le fichier utilisé pour écrire les logs de sortie. Si cet indicateur n’est pas défini, les journaux de sortie sont écrits par défaut dans stderr.
--log-format format
Type de format de journal : text ou json. La valeur par défaut est text.
--log-level chaîne de caractères
Chaîne représentant le niveau de journalisation. Si cet indicateur n’est pas défini, le niveau de format de journal est désactivé.
Type -o, --output
Type de sortie de commande, text ou json. La valeur par défaut est text.
-p, --profile chaîne de caractères
Nom du profil dans le ~/.databrickscfg fichier à utiliser pour exécuter la commande. Si cet indicateur n’est pas spécifié, s’il existe, le profil nommé DEFAULT est utilisé.
--progress-format format
Format permettant d’afficher les journaux de progression : default, append, inplace ou json
-t, --target chaîne de caractères
Le cas échéant, la cible d'ensemble à utiliser
--var strings
définir des valeurs pour les variables définies dans la configuration du bundle. Exemple: --var="foo=bar"