Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Note
Diese Informationen gelten für die Databricks CLI-Version 0.205 und höhere Versionen. Die Databricks CLI befindet sich in der öffentlichen Vorschau.
Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.
Die bundle Befehlsgruppe in der Databricks CLI enthält Befehle zum Verwalten von Databricks Asset Bundles. Mit Databricks Asset Bundles können Sie Projekte als Code ausdrücken und Azure Databricks-Workflows wie Azure Databricks-Aufträge, Lakeflow Spark Declarative Pipelines und MLOps Stacks programmgesteuert überprüfen, bereitstellen und ausführen. Siehe Was sind Databricks Asset Bundles?.
Note
Bundle-Befehle verwenden die Einstellungen databricks.yml für die Authentifizierung, wenn sie aus dem Bundle-Ordner ausgeführt werden. Wenn Sie Bündelbefehle mit unterschiedlicher Authentifizierung innerhalb des Bundleordners ausführen möchten, geben Sie ein Konfigurationsprofil mit dem --profile Flag (oder -p) an, und geben Sie keinen Wert an --target.
Führen Sie alternativ Befehle aus, die nicht dieselbe Authentifizierung wie das Bundle erfordern, von außerhalb des Bundle-Ordners aus.
databricks Paket-Implementierung
Stellen Sie ein Bündel für den Remotearbeitsbereich bereit.
databricks bundle deploy [flags]
Bündeln von Ziel und Identität
Um das Bundle für ein bestimmtes Ziel bereitzustellen, legen Sie die -t Option (oder --target) zusammen mit dem Namen des Ziels fest, wie in den Bundlekonfigurationsdateien deklariert. Wenn keine Befehlsoptionen angegeben sind, wird das Standardziel verwendet, das in den Bündelkonfigurationsdateien deklariert ist. Beispielsweise für ein Ziel, das mit dem Namen „dev“ deklariert wird:
databricks bundle deploy -t dev
Ein Bündel kann für mehrere Arbeitsbereiche wie Entwicklung, Staging und Produktionsarbeitsbereiche bereitgestellt werden. Grundsätzlich ist es die root_path Eigenschaft, die die eindeutige Identität eines Bündels bestimmt und standardmäßig auf ~/.bundle/${bundle.name}/${bundle.target} festgelegt wird. Daher besteht die Identität eines Bündels standardmäßig aus der Identität des Deployers, dem Namen des Bundles und dem Zielnamen des Bündels. Wenn diese in verschiedenen Bündeln identisch sind, stören sich die Bereitstellung dieser Bündel gegenseitig.
Darüber hinaus verfolgt eine Bündelbereitstellung die Ressourcen, die sie im Zielarbeitsbereich erstellt, anhand ihrer IDs als Zustand, der im Arbeitsbereichsdateisystem gespeichert ist. Ressourcennamen werden nicht verwendet, um zwischen einer Bündelbereitstellung und einer Ressourceninstanz zu korrelieren, also:
- Wenn eine Ressource in der Bündelkonfiguration nicht im Zielarbeitsbereich vorhanden ist, wird sie erstellt.
- Wenn eine Ressource in der Paketkonfiguration im Zielarbeitsbereich vorhanden ist, wird sie im Arbeitsbereich aktualisiert.
- Wenn eine Ressource aus der Bündelkonfiguration entfernt wird, wird sie aus dem Zielarbeitsbereich entfernt, wenn sie zuvor bereitgestellt wurde.
- Die Zuordnung einer Ressource mit einem Bündel kann nur vergessen werden, wenn Sie den Bündelnamen, das Bündelziel oder den Arbeitsbereich ändern. Sie können
bundle validateausführen, um eine Zusammenfassung mit diesen Werten auszugeben.
Optionen
--auto-approve
Überspringen Sie interaktive Genehmigungen, die möglicherweise für die Bereitstellung erforderlich sind.
-c, --cluster-id string
Überschreiben Sie den Cluster in der Bereitstellung mit der angegebenen Cluster-ID.
--fail-on-active-runs
Schlägt fehl, wenn in der Bereitstellung Aufträge oder Pipelines ausgeführt werden.
--force
Erzwingen der Git-Verzweigungsüberprüfung.
--force-lock
Erzwingen des Erwerbs der Bereitstellungssperre.
Beispiele
Im folgenden Beispiel wird ein Bundle mithilfe einer bestimmten Cluster-ID bereitgestellt:
databricks bundle deploy --cluster-id 0123-456789-abcdef
Bereitstellung eines Databricks-Bundles
Bereitstellungsbezogene Befehle.
databricks bundle deployment [command]
Verfügbare Befehle
-
bind– Binden Sie eine bundledefinierte Ressource an eine vorhandene Ressource im Remotearbeitsbereich. -
migrate– Migrieren Sie ein Bundle, um die direkte Bereitstellungs-Engine zu verwenden. -
unbind– Hebt die Verknüpfung einer bundledefinierten Ressource von der Remoteressource auf.
databricks Paketbereitstellung binden
Verknüpfen Sie bundledefinierte Ressourcen mit vorhandenen Ressourcen im Azure Databricks-Arbeitsbereich, sodass sie von Databricks Asset Bundles verwaltet werden. Wenn Sie eine Ressource binden, wird die vorhandene Azure Databricks-Ressource im Arbeitsbereich basierend auf der im Bündel definierten Konfiguration aktualisiert, an die sie nach dem nächsten bundle deploygebunden ist.
databricks bundle deployment bind KEY RESOURCE_ID [flags]
Bind erstellt keine Daten neu. Wenn beispielsweise eine Pipeline mit Daten in einem Katalog gebunden wurde, können Sie Elemente in dieser Pipeline bereitstellen, ohne dass die vorhandenen Daten verloren gehen. Darüber hinaus müssen Sie beispielsweise die materialisierte Sicht nicht neu berechnen, sodass Pipelines nicht erneut ausgeführt werden müssen.
Der Bindungsbefehl sollte mit dem --target Flag verwendet werden. Binden Sie beispielsweise Ihre Produktionsbereitstellung mithilfe von databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929 an die Produktionspipeline
Tip
Es ist ratsam, die Ressource im Arbeitsbereich zu bestätigen, bevor die Bindung ausgeführt wird.
Bind wird für die folgenden Ressourcen unterstützt:
- app
- cluster
- dashboard
- job
- model_serving_endpoint
- pipeline
- quality_monitor
- registered_model
- schema
- volume
Für von dem bundle generate-Befehl unterstützte Ressourcen wird die Ressource nach der Generierung automatisch mit der --bind-Option gebunden.
Argumente
KEY
Der Schlüssel der zu bindenden Ressource
RESOURCE_ID
Die ID der vorhandenen Ressource, an die eine Bindung gebunden werden soll
Optionen
--auto-approve
Automatische Genehmigung der Bindung anstelle der Aufforderung
--force-lock
Erzwingen der Übernahme der Bereitstellungssperre
Beispiele
Mit dem folgenden Befehl wird die Ressource hello_job an ihr Remote-Gegenstück im Arbeitsbereich gebunden. Der Befehl gibt einen Diff aus und ermöglicht es Ihnen, die Ressourcenbindung zu verweigern, aber wenn bestätigt, werden alle Aktualisierungen der Auftragsdefinition im Bündel auf den entsprechenden Remoteauftrag angewendet, wenn das Bündel das nächste Mal bereitgestellt wird.
databricks bundle deployment bind hello_job 6565621249
Migrieren der Databricks-Bündelbereitstellung
Important
Dieses Feature ist experimentell.
Migrieren Sie das Bundle von der Verwendung des Terraform-Bereitstellungsmoduls zur Verwendung des direkten Bereitstellungsmoduls. Siehe Migrieren zum direkten Bereitstellungsmodul. Um die Migration abzuschließen, müssen Sie das Bundle bereitstellen.
Sie können überprüfen, ob eine Migration erfolgreich war, indem Sie databricks bundle plan ausführen. Siehe Databricks-Bündelplan.
databricks bundle deployment migrate [flags]
Argumente
Nichts
Optionen
Beispiele
Im folgenden Beispiel wird das aktuelle Bundle migriert, um das direkte Bereitstellungsmodul zu verwenden:
databricks bundle deployment migrate
Databricks-Bundle-Bereitstellung aufheben
Entfernen Sie die Verknüpfung zwischen der Ressource in einem Bündel und dessen Remoteentsprechung in einem Arbeitsbereich.
databricks bundle deployment unbind KEY [flags]
Argumente
KEY
Der Schlüssel der Ressource, die entbunden werden soll
Optionen
--force-lock
Erzwingen des Erwerbs der Bereitstellungssperre.
Beispiele
Im folgenden Beispiel wird die hello_job Ressource nicht gebunden:
databricks bundle deployment unbind hello_job
databricks-Bundle zerstören
Warning
Durch das Löschen eines Bündels werden die zuvor bereitgestellten Aufträge, Pipelines und Artefakte eines Bundles endgültig gelöscht. Diese Aktion kann nicht rückgängig gemacht werden.
Löschen von Aufträgen, Pipelines, anderen Ressourcen und Artefakten, die zuvor bereitgestellt wurden.
databricks bundle destroy [flags]
Note
Die Identität eines Bündels besteht aus dem Bundlenamen, dem Bundleziel und dem Arbeitsbereich. Wenn Sie eines dieser Elemente geändert haben und dann versuchen, ein Bündel vor der Bereitstellung zu zerstören, tritt ein Fehler auf.
Standardmäßig werden Sie aufgefordert, das dauerhafte Löschen der zuvor bereitgestellten Aufträge, Pipelines und Artefakte zu bestätigen. Um diese Eingabeaufforderungen zu überspringen und automatisch dauerhaft zu löschen, fügen Sie dem --auto-approve-Befehl die Option bundle destroy hinzu.
Optionen
--auto-approve
Interaktive Genehmigungen zum Löschen von Ressourcen und Dateien überspringen
--force-lock
Erzwingen des Erwerbs der Bereitstellungssperre.
Beispiele
Mit dem folgenden Befehl werden alle zuvor bereitgestellten Ressourcen und Artefakte gelöscht, die in den Paketkonfigurationsdateien definiert sind:
databricks bundle destroy
databricks-Befehl: bundle generate
Generieren Sie die Bundlekonfiguration für eine Ressource, die bereits in Ihrem Databricks-Arbeitsbereich vorhanden ist. Die folgenden Ressourcen werden unterstützt: App, Dashboard, Auftrag, Pipeline.
Standardmäßig generiert dieser Befehl eine *.yml Datei für die Ressource im resources Ordner des Bundleprojekts und lädt auch alle Dateien herunter, z. B. Notizbücher, auf die in der Konfiguration verwiesen wird.
Important
Der bundle generate-Befehl wird aus Benutzerfreundlichkeit bereitgestellt, um die Ressourcenkonfiguration automatisch zu generieren. Wenn Ihr Bündel jedoch die Ressourcenkonfiguration enthält und Sie es bereitstellen, erstellt Azure Databricks eine neue Ressource, anstatt die vorhandene Ressource zu aktualisieren. Um stattdessen eine vorhandene Ressource zu aktualisieren, müssen Sie entweder das --bind-Flag mit bundle generate verwenden oder bundle deployment bind vor der Bereitstellung ausführen. Siehe Databricks Bundle-Bereitstellungsbindung.
databricks bundle generate [command]
Verfügbare Befehle
-
app– Generieren sie die Bündelkonfiguration für eine Databricks-App. -
dashboard– Generieren sie die Konfiguration für ein Dashboard. -
job– Generieren sie die Bundlekonfiguration für einen Auftrag. -
pipeline– Generieren sie die Bundlekonfiguration für eine Pipeline.
Optionen
--key string
Ressourcenschlüssel, der für die generierte Konfiguration verwendet werden soll
databricks Paket generieren App
Generieren Sie die Bundlekonfiguration für eine vorhandene Databricks-App im Arbeitsbereich.
databricks bundle generate app [flags]
Optionen
--bind
Binden Sie die generierte Ressource automatisch mit dem vorhandenen im Arbeitsbereich.
-d, --config-dir string
Verzeichnispfad, in dem die Ausgabepaketkonfiguration gespeichert wird (Standardressourcen)
--existing-app-name string
App-Name zum Generieren der Konfiguration für
-f, --force
Überschreiben vorhandener Dateien im Ausgabeverzeichnis erzwingen
-s, --source-dir string
Verzeichnispfad, in dem die App-Dateien gespeichert werden (Standardeinstellung "src/app")
Beispiele
Im folgenden Beispiel wird eine Konfiguration für eine vorhandene App mit dem Namen my-appgeneriert. Sie können den App-Namen über die Registerkarte "Compute>Apps " der Arbeitsbereichs-UI abrufen.
databricks bundle generate app --existing-app-name my-app
Der folgende Befehl generiert eine neue hello_world.app.yml Datei im resources Paketprojektordner und lädt die Codedateien der App herunter, z. B. die Befehlskonfigurationsdatei und app.yamlhauptdatei app.py der App. Standardmäßig werden die Codedateien in den Ordner des Bundles src kopiert.
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
databricks Paket generieren Dashboard
Generieren Sie die Konfiguration für ein vorhandenes Dashboard im Arbeitsbereich.
databricks bundle generate dashboard [flags]
Tip
Wenn Sie die .lvdash.json Datei aktualisieren möchten, nachdem Sie bereits ein Dashboard bereitgestellt haben, verwenden Sie die --resource Option, wenn Sie diese bundle generate dashboard Datei für die vorhandene Dashboardressource generieren. Um Updates für ein Dashboard kontinuierlich abzufragen und abzurufen, verwenden Sie die Optionen --force und --watch.
Optionen
--bind
Binden Sie die generierte Ressource automatisch mit dem vorhandenen im Arbeitsbereich.
-s, --dashboard-dir string
Verzeichnis zum Schreiben der Dashboarddarstellung in (Standard "src")
--existing-id string
ID des Dashboards zum Generieren der Konfiguration für
--existing-path string
Arbeitsbereichspfad des Dashboards zum Generieren der Konfiguration für
-f, --force
Überschreiben vorhandener Dateien im Ausgabeverzeichnis erzwingen
--resource string
Ressourcenschlüssel des Dashboards zur Überwachung auf Änderungen
-d, --resource-dir string
Verzeichnis zum Schreiben der Konfiguration in (Standardressourcen)
--watch
Achten Sie auf Änderungen am Dashboard, und aktualisieren Sie die Konfiguration.
Beispiele
Im folgenden Beispiel wird eine Konfiguration durch eine vorhandene Dashboard-ID generiert:
databricks bundle generate dashboard --existing-id abc123
Sie können auch eine Konfiguration für ein vorhandenes Dashboard anhand des Arbeitsbereichspfads generieren. Kopieren Sie den Arbeitsbereichspfad für ein Dashboard aus der Arbeitsbereichs-UI.
Der folgende Befehl generiert z. B. eine neue baby_gender_by_county.dashboard.yml-Datei im resources-Bündelprojektordner, der das YAML unten enthält, und lädt die baby_gender_by_county.lvdash.json-Datei in den src-Projektordner herunter.
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
databricks bundle "Job generieren"
Generieren Sie die Bundlekonfiguration für einen Auftrag.
Note
Derzeit werden nur Aufträge mit Notebookaufgaben von diesem Befehl unterstützt.
databricks bundle generate job [flags]
Optionen
--bind
Binden Sie die generierte Ressource automatisch mit dem vorhandenen im Arbeitsbereich.
-d, --config-dir string
Dir-Pfad, in dem die Ausgabekonfiguration gespeichert wird (Standard "Resources")
--existing-job-id int
Auftrags-ID des Auftrags zum Generieren der Konfiguration für
-f, --force
Überschreiben vorhandener Dateien im Ausgabeverzeichnis erzwingen
-s, --source-dir string
Dir-Pfad, in dem die heruntergeladenen Dateien gespeichert werden (Standard "src")
Beispiele
Im folgenden Beispiel wird eine neue hello_job.yml Datei im resources Paketprojektordner generiert, der das folgende YAML enthält, und der simple_notebook.py Datei wird in den src Projektordner heruntergeladen. Außerdem bindet sie die generierte Ressource an den vorhandenen Auftrag im Arbeitsbereich.
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
databricks-Bundle-Pipeline erstellen
Generieren Sie die Bundlekonfiguration für eine Pipeline.
databricks bundle generate pipeline [flags]
Optionen
--bind
Binden Sie die generierte Ressource automatisch mit dem vorhandenen im Arbeitsbereich.
-d, --config-dir string
Dir-Pfad, in dem die Ausgabekonfiguration gespeichert wird (Standard "Resources")
--existing-pipeline-id string
ID der Pipeline zum Generieren der Konfiguration für
-f, --force
Überschreiben vorhandener Dateien im Ausgabeverzeichnis erzwingen
-s, --source-dir string
Dir-Pfad, in dem die heruntergeladenen Dateien gespeichert werden (Standard "src")
Beispiele
Im folgenden Beispiel wird eine Konfiguration für eine vorhandene Pipeline generiert:
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
databricks bundle init
Initialisieren Sie ein neues Bündel mithilfe einer Bündelvorlage. Vorlagen können konfiguriert werden, um den Benutzer zur Eingabe von Werten aufzufordern. Siehe Databricks Asset Bundle-Projektvorlagen.
databricks bundle init [TEMPLATE_PATH] [flags]
Argumente
TEMPLATE_PATH
Vorlage, die für die Initialisierung verwendet werden soll (optional)
Optionen
--branch string
Git Branch, der für die Vorlageninitialisierung verwendet werden soll
--config-file string
JSON-Datei mit Schlüsselwertpaaren von Eingabeparametern, die für die Vorlageninitialisierung erforderlich sind.
--output-dir string
Verzeichnis zum Schreiben der initialisierten Vorlage in.
--tag string
Git-Tag für die Vorlageninitialisierung
--template-dir string
Verzeichnispfad innerhalb eines Git-Repositorys, das die Vorlage enthält.
Beispiele
Im folgenden Beispiel wird eine Liste der Standardbundlevorlagen angezeigt, aus denen Sie auswählen können:
databricks bundle init
Im folgenden Beispiel wird ein Bundle mit der Standardvorlage Python initialisiert:
databricks bundle init default-python
Um ein Databricks-Objektbundle mit einer benutzerdefinierten Databricks Asset Bundle-Vorlage zu erstellen, geben Sie den benutzerdefinierten Vorlagenpfad an:
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
Im folgenden Beispiel wird ein Bundle aus einem Git-Repository initialisiert:
databricks bundle init https://github.com/my/repository
Im folgenden Beispiel wird eine bestimmte Verzweigung initialisiert:
databricks bundle init --branch main
databricks-Bundle öffnen
Navigieren Sie zu einer Bündelressource im Arbeitsbereich, und geben Sie die zu öffnende Ressource an. Wenn kein Ressourcenschlüssel angegeben ist, gibt dieser Befehl eine Liste der Ressourcen des Bundles aus, aus denen Sie auswählen möchten.
databricks bundle open [flags]
Optionen
--force-pull
Überspringen des lokalen Caches und Laden des Zustands aus dem Remotearbeitsbereich
Beispiele
Im folgenden Beispiel wird ein Browser gestartet und im Bündel im Databricks-Arbeitsbereich zum baby_gender_by_county Dashboard navigiert, das für das Bundle konfiguriert ist:
databricks bundle open baby_gender_by_county
Databricks-Bündelplan
Zeigen Sie den Bereitstellungsplan für die aktuelle Paketkonfiguration an.
Dieser Befehl erstellt das Bundle und zeigt die Aktionen an, die für Ressourcen ausgeführt werden, die bereitgestellt würden, ohne Änderungen vorzunehmen. Damit können Sie Änderungen in der Vorschau sehen, bevor bundle deploy ausgeführt wird.
databricks bundle plan [flags]
Optionen
-c, --cluster-id string
Überschreiben Sie den Cluster in der Bereitstellung mit der angegebenen Cluster-ID.
--force
Erzwingen der Git-Verzweigungsüberprüfung.
Beispiele
Im folgenden Beispiel wird der Bereitstellungsplan für ein Bundle ausgegeben, das ein Python-Rad erstellt und einen Auftrag und eine Pipeline definiert:
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
databricks-Paket ausführen
Führen Sie einen Auftrag, eine Pipeline oder ein Skript aus. Wenn Sie keine Ressource angeben, zeigt das System definierte Aufträge, Pipelines und Skripts zur Auswahl an. Alternativ können Sie den Auftrag oder den Pipelineschlüssel oder den Skriptnamen angeben, der in den Bundlekonfigurationsdateien deklariert ist.
databricks bundle run [flags] [KEY]
Überprüfen einer Pipeline
Wenn Sie eine Pipelinevalidierung ausführen möchten, verwenden Sie die --validate-only-Option, wie im folgenden Beispiel gezeigt:
databricks bundle run --validate-only my_pipeline
Auftragsparameter übergeben
Um Auftragsparameter zu übergeben, verwenden Sie die Option --params gefolgt von kommagetrennten Schlüsselwertpaaren, wobei der Schlüssel der Parametername ist. Beispielsweise legt der folgende Befehl den Parameter mit dem Namen message auf HelloWorld für den Auftrag hello_job fest:
databricks bundle run --params message=HelloWorld hello_job
Note
Wie in den folgenden Beispielen gezeigt, können Sie Parameter mithilfe der Auftragsaufgabenoptionen an Auftragsaufgaben übergeben, aber die Option ist die --params empfohlene Methode zum Übergeben von Auftragsparametern. Ein Fehler tritt auf, wenn Auftragsparameter für einen Auftrag angegeben werden, der keine Auftragsparameter definiert hat oder wenn Vorgangsparameter für einen Auftrag angegeben werden, für den Auftragsparameter definiert sind.
Sie können auch Schlüsselwort- oder Positionsargumente angeben. Wenn der angegebene Auftrag Auftragsparameter verwendet oder der Auftrag über eine Notizbuchaufgabe mit Parametern verfügt, werden die Flagnamen den Parameternamen zugeordnet:
databricks bundle run hello_job -- --key1 value1 --key2 value2
Oder wenn der angegebene Auftrag keine Auftragsparameter verwendet und der Auftrag über eine Python-Dateiaufgabe oder eine Python-Radaufgabe verfügt:
databricks bundle run my_job -- value1 value2 value3
Eine Beispielauftragsdefinition mit Parametern finden Sie unter Auftrag mit Parametern.
Ausführen von Skripts
Zum Ausführen von Skripts wie Integrationstests mit den konfigurierten Authentifizierungsanmeldeinformationen eines Bundles können Sie skripts entweder inline ausführen oder ein skript ausführen, das in der Bundlekonfiguration definiert ist. Skripts werden mit dem gleichen Authentifizierungskontext ausgeführt, der im Bundle konfiguriert ist.
Fügen Sie einen doppelten Bindestrich (
--) nachbundle runzum Ausführen von Skripten inline an. Mit dem folgenden Befehl wird beispielsweise das aktuelle Arbeitsverzeichnis des aktuellen Benutzers ausgegeben:databricks bundle run -- python3 -c 'import os; print(os.getcwd())'Alternativ können Sie ein Skript innerhalb der
scriptsZuordnung in Ihrer Bundlekonfiguration definieren und anschließendbundle runzum Ausführen des Skripts verwenden.scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptWeitere Informationen zur
scriptsKonfiguration finden Sie unter Skripts und Skripts.
Bündelauthentifizierungsinformationen werden mithilfe von Umgebungsvariablen an untergeordnete Prozesse übergeben. Siehe Databricks unified authentication.
Argumente
KEY
Der eindeutige Bezeichner der auszuführenden Ressource (optional)
Optionen
--no-wait
Warten Sie nicht, bis die Ausführung abgeschlossen ist.
--restart
Starten Sie die Ausführung neu, wenn sie bereits ausgeführt wird.
Auftragskennzeichnungen
Die folgenden Flags sind Parameterkennzeichnungen auf Auftragsebene. Siehe Konfigurieren von Auftragsparametern.
--params stringToString
kommagetrennte k=v-Paare für Auftragsparameter (Standard [])
Auftragsaufgabenkennzeichnungen
Die folgenden Flags sind Parameterkennzeichnungen auf Taskebene. Weitere Informationen finden Sie unter Konfigurieren von Aufgabenparametern. Databricks empfiehlt die Verwendung von Parametern auf Auftragsebene (--params) über Parameter auf Vorgangsebene.
--dbt-commands strings
Eine Liste der Befehle, die für Aufträge mit DBT-Aufgaben ausgeführt werden sollen.
--jar-params strings
Eine Liste der Parameter für Aufträge mit Spark JAR-Aufgaben.
--notebook-params stringToString
Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit Notizbuchaufgaben. (Standard [])
--pipeline-params stringToString
Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit Pipelinevorgängen. (Standard [])
--python-named-params stringToString
Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit Python-Radaufgaben. (Standard [])
--python-params strings
Eine Liste der Parameter für Aufträge mit Python-Aufgaben.
--spark-submit-params strings
Eine Liste der Parameter für Aufträge mit Spark submit tasks.
--sql-params stringToString
Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit SQL-Aufgaben. (Standard [])
Pipelinekennzeichnungen
Die folgenden Flags sind Pipelineflags.
--full-refresh strings
Liste der Tabellen, die zurückgesetzt und neu komputiert werden sollen.
--full-refresh-all
Durchführen eines vollständigen Zurücksetzens und Neukompilierens von Diagrammen.
--refresh strings
Liste der zu aktualisierenden Tabellen.
--refresh-all
Führen Sie eine vollständige Diagrammaktualisierung aus.
--validate-only
Führen Sie eine Aktualisierung aus, um die Richtigkeit des Diagramms zu überprüfen.
Beispiele
Im folgenden Beispiel wird ein Auftrag hello_job im Standardziel ausgeführt:
databricks bundle run hello_job
Im folgenden Beispiel wird ein Auftrag hello_job im Kontext eines mit dem Namen devdeklarierten Ziels ausgeführt:
databricks bundle run -t dev hello_job
Im folgenden Beispiel wird die Ausführung eines vorhandenen Auftrags abgebrochen und neu gestartet:
databricks bundle run --restart hello_job
Im folgenden Beispiel wird eine Pipeline mit vollständiger Aktualisierung ausgeführt:
databricks bundle run my_pipeline --full-refresh-all
Im folgenden Beispiel wird ein Befehl im Bundlekontext ausgeführt:
databricks bundle run -- echo "hello, world"
Databricks-Bundle-Schema
Zeigen Sie das JSON-Schema für die Bundlekonfiguration an.
databricks bundle schema [flags]
Optionen
Beispiele
Im folgenden Beispiel wird das JSON-Schema für die Bundlekonfiguration ausgegeben:
databricks bundle schema
Um das Paketkonfigurationsschema als JSON-Datei auszugeben, führen Sie den bundle schema Befehl aus, und leiten Sie die Ausgabe an eine JSON-Datei um. Sie können z. B. eine Im aktuellen Verzeichnis benannte bundle_config_schema.json Datei generieren:
databricks bundle schema > bundle_config_schema.json
Zusammenfassung des Databricks-Bundles
Geben Sie eine Zusammenfassung der Identität und Ressourcen eines Bündels aus, einschließlich Deep-Links für Ressourcen, sodass Sie einfach zu der Ressource im Databricks-Arbeitsbereich navigieren können.
databricks bundle summary [flags]
Tip
Sie können auch bundle open verwenden, um zu einer Ressource im Databricks-Arbeitsbereich zu navigieren. Siehe "databricks bundle open".
Optionen
--force-pull
Überspringen des lokalen Caches und Laden des Zustands aus dem Remotearbeitsbereich
Beispiele
Im folgenden Beispiel wird eine Zusammenfassung der bereitgestellten Ressourcen eines Bundles ausgegeben:
databricks bundle summary
Die folgende Ausgabe ist die Zusammenfassung eines Bundles, my_pipeline_bundle das einen Auftrag und eine Pipeline definiert:
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
databricks Bundle-Synchronisation
Führen Sie eine unidirektionale Synchronisierung der Dateiänderungen eines Bundles innerhalb eines lokalen Dateisystemverzeichnisses mit einem Verzeichnis innerhalb eines Azure Databricks-Remotearbeitsbereichs durch.
Note
Mit bundle sync-Befehlen können Dateiänderungen aus einem Verzeichnis innerhalb eines Azure Databricks-Remotearbeitsbereichs nicht mit einem Verzeichnis innerhalb eines lokalen Dateisystems synchronisiert werden.
databricks bundle sync [flags]
databricks bundle sync-Befehle funktionieren auf die gleiche Weise wie databricks sync-Befehle und werden zur Verbesserung der Produktivität bereitgestellt. Informationen zur Befehlsverwendung finden Sie unter sync "Befehl".
Optionen
--dry-run
Simulieren der Synchronisierungsausführung, ohne tatsächliche Änderungen vorzunehmen
--full
Vollständige Synchronisierung durchführen (Standard ist inkrementell)
--interval duration
Dateisystemabfragungsintervall (für --watch) (Standard 1s)
--output type
Typ des Ausgabeformats
--watch
Überwachen des lokalen Dateisystems für Änderungen
Beispiele
Im folgenden Beispiel wird eine Trockenlaufsynchronisierung ausgeführt:
databricks bundle sync --dry-run
Im folgenden Beispiel werden Änderungen automatisch überwacht und synchronisiert:
databricks bundle sync --watch
Im folgenden Beispiel wird eine vollständige Synchronisierung ausgeführt:
databricks bundle sync --full
Führen Sie den Befehl databricks bundle validate aus
Überprüfen sie, ob die Bundlekonfigurationsdateien syntaktisch korrekt sind.
databricks bundle validate [flags]
Standardmäßig gibt dieser Befehl eine Zusammenfassung der Paketidentität zurück:
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
Note
Der bundle validate Befehl gibt Warnungen aus, wenn Ressourceneigenschaften in den Bundlekonfigurationsdateien definiert sind, die im Schema des entsprechenden Objekts nicht gefunden werden.
Wenn Sie nur eine Zusammenfassung der Identität und Ressourcen des Bundles ausgeben möchten, verwenden Sie die Bundlezusammenfassung.
Optionen
Beispiele
Im folgenden Beispiel wird die Bundlekonfiguration überprüft:
databricks bundle validate
Globale Kennzeichnungen
--debug
Gibt an, ob die Debugprotokollierung aktiviert werden soll.
-h oder --help
Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.
--log-file Schnur
Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.
--log-format Format
Der Protokollformattyp text oder json. Der Standardwert ist text.
--log-level Schnur
Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.
-o, --output Typ
Der Befehlsausgabetyp text oder json. Der Standardwert ist text.
-p, --profile Schnur
Der Name des Profils in der ~/.databrickscfg Datei, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben ist und das Profil existiert, wird das benannte DEFAULT Profil verwendet.
--progress-format Format
Das Format zum Anzeigen von Statusprotokollen: default, , append, inplaceoder json
-t, --target Schnur
Falls zutreffend, das zu verwendende Bündelziel
--var strings
Legen Sie Werte für Variablen fest, die in der Bundlekonfiguration definiert sind. Beispiel: --var="foo=bar"