Freigeben über


bundle-Befehlsgruppe

Note

Diese Informationen gelten für die Databricks CLI-Version 0.205 und höhere Versionen. Die Databricks CLI befindet sich in der öffentlichen Vorschau.

Die Verwendung von Databricks CLI unterliegt der Datenbricks-Lizenz - und Databricks-Datenschutzerklärung, einschließlich der Bestimmungen zu Nutzungsdaten.

Die bundle Befehlsgruppe in der Databricks CLI enthält Befehle zum Verwalten von Databricks Asset Bundles. Mit Databricks Asset Bundles können Sie Projekte als Code ausdrücken und Azure Databricks-Workflows wie Azure Databricks-Aufträge, Lakeflow Spark Declarative Pipelines und MLOps Stacks programmgesteuert überprüfen, bereitstellen und ausführen. Siehe Was sind Databricks Asset Bundles?.

Note

Bundle-Befehle verwenden die Einstellungen databricks.yml für die Authentifizierung, wenn sie aus dem Bundle-Ordner ausgeführt werden. Wenn Sie Bündelbefehle mit unterschiedlicher Authentifizierung innerhalb des Bundleordners ausführen möchten, geben Sie ein Konfigurationsprofil mit dem --profile Flag (oder -p) an, und geben Sie keinen Wert an --target.

Führen Sie alternativ Befehle aus, die nicht dieselbe Authentifizierung wie das Bundle erfordern, von außerhalb des Bundle-Ordners aus.

databricks Paket-Implementierung

Stellen Sie ein Bündel für den Remotearbeitsbereich bereit.

databricks bundle deploy [flags]

Bündeln von Ziel und Identität

Um das Bundle für ein bestimmtes Ziel bereitzustellen, legen Sie die -t Option (oder --target) zusammen mit dem Namen des Ziels fest, wie in den Bundlekonfigurationsdateien deklariert. Wenn keine Befehlsoptionen angegeben sind, wird das Standardziel verwendet, das in den Bündelkonfigurationsdateien deklariert ist. Beispielsweise für ein Ziel, das mit dem Namen „dev“ deklariert wird:

databricks bundle deploy -t dev

Ein Bündel kann für mehrere Arbeitsbereiche wie Entwicklung, Staging und Produktionsarbeitsbereiche bereitgestellt werden. Grundsätzlich ist es die root_path Eigenschaft, die die eindeutige Identität eines Bündels bestimmt und standardmäßig auf ~/.bundle/${bundle.name}/${bundle.target} festgelegt wird. Daher besteht die Identität eines Bündels standardmäßig aus der Identität des Deployers, dem Namen des Bundles und dem Zielnamen des Bündels. Wenn diese in verschiedenen Bündeln identisch sind, stören sich die Bereitstellung dieser Bündel gegenseitig.

Darüber hinaus verfolgt eine Bündelbereitstellung die Ressourcen, die sie im Zielarbeitsbereich erstellt, anhand ihrer IDs als Zustand, der im Arbeitsbereichsdateisystem gespeichert ist. Ressourcennamen werden nicht verwendet, um zwischen einer Bündelbereitstellung und einer Ressourceninstanz zu korrelieren, also:

  • Wenn eine Ressource in der Bündelkonfiguration nicht im Zielarbeitsbereich vorhanden ist, wird sie erstellt.
  • Wenn eine Ressource in der Paketkonfiguration im Zielarbeitsbereich vorhanden ist, wird sie im Arbeitsbereich aktualisiert.
  • Wenn eine Ressource aus der Bündelkonfiguration entfernt wird, wird sie aus dem Zielarbeitsbereich entfernt, wenn sie zuvor bereitgestellt wurde.
  • Die Zuordnung einer Ressource mit einem Bündel kann nur vergessen werden, wenn Sie den Bündelnamen, das Bündelziel oder den Arbeitsbereich ändern. Sie können bundle validate ausführen, um eine Zusammenfassung mit diesen Werten auszugeben.

Optionen

--auto-approve

    Überspringen Sie interaktive Genehmigungen, die möglicherweise für die Bereitstellung erforderlich sind.

-c, --cluster-id string

    Überschreiben Sie den Cluster in der Bereitstellung mit der angegebenen Cluster-ID.

--fail-on-active-runs

    Schlägt fehl, wenn in der Bereitstellung Aufträge oder Pipelines ausgeführt werden.

--force

    Erzwingen der Git-Verzweigungsüberprüfung.

--force-lock

    Erzwingen des Erwerbs der Bereitstellungssperre.

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird ein Bundle mithilfe einer bestimmten Cluster-ID bereitgestellt:

databricks bundle deploy --cluster-id 0123-456789-abcdef

Bereitstellung eines Databricks-Bundles

Bereitstellungsbezogene Befehle.

databricks bundle deployment [command]

Verfügbare Befehle

  • bind – Binden Sie eine bundledefinierte Ressource an eine vorhandene Ressource im Remotearbeitsbereich.
  • migrate – Migrieren Sie ein Bundle, um die direkte Bereitstellungs-Engine zu verwenden.
  • unbind – Hebt die Verknüpfung einer bundledefinierten Ressource von der Remoteressource auf.

databricks Paketbereitstellung binden

Verknüpfen Sie bundledefinierte Ressourcen mit vorhandenen Ressourcen im Azure Databricks-Arbeitsbereich, sodass sie von Databricks Asset Bundles verwaltet werden. Wenn Sie eine Ressource binden, wird die vorhandene Azure Databricks-Ressource im Arbeitsbereich basierend auf der im Bündel definierten Konfiguration aktualisiert, an die sie nach dem nächsten bundle deploygebunden ist.

databricks bundle deployment bind KEY RESOURCE_ID [flags]

Bind erstellt keine Daten neu. Wenn beispielsweise eine Pipeline mit Daten in einem Katalog gebunden wurde, können Sie Elemente in dieser Pipeline bereitstellen, ohne dass die vorhandenen Daten verloren gehen. Darüber hinaus müssen Sie beispielsweise die materialisierte Sicht nicht neu berechnen, sodass Pipelines nicht erneut ausgeführt werden müssen.

Der Bindungsbefehl sollte mit dem --target Flag verwendet werden. Binden Sie beispielsweise Ihre Produktionsbereitstellung mithilfe von databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929 an die Produktionspipeline

Tip

Es ist ratsam, die Ressource im Arbeitsbereich zu bestätigen, bevor die Bindung ausgeführt wird.

Bind wird für die folgenden Ressourcen unterstützt:

Für von dem bundle generate-Befehl unterstützte Ressourcen wird die Ressource nach der Generierung automatisch mit der --bind-Option gebunden.

Argumente

KEY

    Der Schlüssel der zu bindenden Ressource

RESOURCE_ID

    Die ID der vorhandenen Ressource, an die eine Bindung gebunden werden soll

Optionen

--auto-approve

    Automatische Genehmigung der Bindung anstelle der Aufforderung

--force-lock

    Erzwingen der Übernahme der Bereitstellungssperre

Globale Kennzeichnungen

Beispiele

Mit dem folgenden Befehl wird die Ressource hello_job an ihr Remote-Gegenstück im Arbeitsbereich gebunden. Der Befehl gibt einen Diff aus und ermöglicht es Ihnen, die Ressourcenbindung zu verweigern, aber wenn bestätigt, werden alle Aktualisierungen der Auftragsdefinition im Bündel auf den entsprechenden Remoteauftrag angewendet, wenn das Bündel das nächste Mal bereitgestellt wird.

databricks bundle deployment bind hello_job 6565621249

Migrieren der Databricks-Bündelbereitstellung

Important

Dieses Feature ist experimentell.

Migrieren Sie das Bundle von der Verwendung des Terraform-Bereitstellungsmoduls zur Verwendung des direkten Bereitstellungsmoduls. Siehe Migrieren zum direkten Bereitstellungsmodul. Um die Migration abzuschließen, müssen Sie das Bundle bereitstellen.

Sie können überprüfen, ob eine Migration erfolgreich war, indem Sie databricks bundle plan ausführen. Siehe Databricks-Bündelplan.

databricks bundle deployment migrate [flags]

Argumente

Nichts

Optionen

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird das aktuelle Bundle migriert, um das direkte Bereitstellungsmodul zu verwenden:

databricks bundle deployment migrate

Databricks-Bundle-Bereitstellung aufheben

Entfernen Sie die Verknüpfung zwischen der Ressource in einem Bündel und dessen Remoteentsprechung in einem Arbeitsbereich.

databricks bundle deployment unbind KEY [flags]

Argumente

KEY

    Der Schlüssel der Ressource, die entbunden werden soll

Optionen

--force-lock

    Erzwingen des Erwerbs der Bereitstellungssperre.

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird die hello_job Ressource nicht gebunden:

databricks bundle deployment unbind hello_job

databricks-Bundle zerstören

Warning

Durch das Löschen eines Bündels werden die zuvor bereitgestellten Aufträge, Pipelines und Artefakte eines Bundles endgültig gelöscht. Diese Aktion kann nicht rückgängig gemacht werden.

Löschen von Aufträgen, Pipelines, anderen Ressourcen und Artefakten, die zuvor bereitgestellt wurden.

databricks bundle destroy [flags]

Note

Die Identität eines Bündels besteht aus dem Bundlenamen, dem Bundleziel und dem Arbeitsbereich. Wenn Sie eines dieser Elemente geändert haben und dann versuchen, ein Bündel vor der Bereitstellung zu zerstören, tritt ein Fehler auf.

Standardmäßig werden Sie aufgefordert, das dauerhafte Löschen der zuvor bereitgestellten Aufträge, Pipelines und Artefakte zu bestätigen. Um diese Eingabeaufforderungen zu überspringen und automatisch dauerhaft zu löschen, fügen Sie dem --auto-approve-Befehl die Option bundle destroy hinzu.

Optionen

--auto-approve

    Interaktive Genehmigungen zum Löschen von Ressourcen und Dateien überspringen

--force-lock

    Erzwingen des Erwerbs der Bereitstellungssperre.

Globale Kennzeichnungen

Beispiele

Mit dem folgenden Befehl werden alle zuvor bereitgestellten Ressourcen und Artefakte gelöscht, die in den Paketkonfigurationsdateien definiert sind:

databricks bundle destroy

databricks-Befehl: bundle generate

Generieren Sie die Bundlekonfiguration für eine Ressource, die bereits in Ihrem Databricks-Arbeitsbereich vorhanden ist. Die folgenden Ressourcen werden unterstützt: App, Dashboard, Auftrag, Pipeline.

Standardmäßig generiert dieser Befehl eine *.yml Datei für die Ressource im resources Ordner des Bundleprojekts und lädt auch alle Dateien herunter, z. B. Notizbücher, auf die in der Konfiguration verwiesen wird.

Important

Der bundle generate-Befehl wird aus Benutzerfreundlichkeit bereitgestellt, um die Ressourcenkonfiguration automatisch zu generieren. Wenn Ihr Bündel jedoch die Ressourcenkonfiguration enthält und Sie es bereitstellen, erstellt Azure Databricks eine neue Ressource, anstatt die vorhandene Ressource zu aktualisieren. Um stattdessen eine vorhandene Ressource zu aktualisieren, müssen Sie entweder das --bind-Flag mit bundle generate verwenden oder bundle deployment bind vor der Bereitstellung ausführen. Siehe Databricks Bundle-Bereitstellungsbindung.

databricks bundle generate [command]

Verfügbare Befehle

  • app – Generieren sie die Bündelkonfiguration für eine Databricks-App.
  • dashboard – Generieren sie die Konfiguration für ein Dashboard.
  • job – Generieren sie die Bundlekonfiguration für einen Auftrag.
  • pipeline – Generieren sie die Bundlekonfiguration für eine Pipeline.

Optionen

--key string

    Ressourcenschlüssel, der für die generierte Konfiguration verwendet werden soll

Globale Kennzeichnungen

databricks Paket generieren App

Generieren Sie die Bundlekonfiguration für eine vorhandene Databricks-App im Arbeitsbereich.

databricks bundle generate app [flags]

Optionen

--bind

    Binden Sie die generierte Ressource automatisch mit dem vorhandenen im Arbeitsbereich.

-d, --config-dir string

    Verzeichnispfad, in dem die Ausgabepaketkonfiguration gespeichert wird (Standardressourcen)

--existing-app-name string

    App-Name zum Generieren der Konfiguration für

-f, --force

    Überschreiben vorhandener Dateien im Ausgabeverzeichnis erzwingen

-s, --source-dir string

    Verzeichnispfad, in dem die App-Dateien gespeichert werden (Standardeinstellung "src/app")

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird eine Konfiguration für eine vorhandene App mit dem Namen my-appgeneriert. Sie können den App-Namen über die Registerkarte "Compute>Apps " der Arbeitsbereichs-UI abrufen.

databricks bundle generate app --existing-app-name my-app

Der folgende Befehl generiert eine neue hello_world.app.yml Datei im resources Paketprojektordner und lädt die Codedateien der App herunter, z. B. die Befehlskonfigurationsdatei und app.yamlhauptdatei app.py der App. Standardmäßig werden die Codedateien in den Ordner des Bundles src kopiert.

databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
  apps:
    hello_world:
      name: hello-world
      description: A basic starter application.
      source_code_path: ../src/app

databricks Paket generieren Dashboard

Generieren Sie die Konfiguration für ein vorhandenes Dashboard im Arbeitsbereich.

databricks bundle generate dashboard [flags]

Tip

Wenn Sie die .lvdash.json Datei aktualisieren möchten, nachdem Sie bereits ein Dashboard bereitgestellt haben, verwenden Sie die --resource Option, wenn Sie diese bundle generate dashboard Datei für die vorhandene Dashboardressource generieren. Um Updates für ein Dashboard kontinuierlich abzufragen und abzurufen, verwenden Sie die Optionen --force und --watch.

Optionen

--bind

    Binden Sie die generierte Ressource automatisch mit dem vorhandenen im Arbeitsbereich.

-s, --dashboard-dir string

    Verzeichnis zum Schreiben der Dashboarddarstellung in (Standard "src")

--existing-id string

    ID des Dashboards zum Generieren der Konfiguration für

--existing-path string

    Arbeitsbereichspfad des Dashboards zum Generieren der Konfiguration für

-f, --force

    Überschreiben vorhandener Dateien im Ausgabeverzeichnis erzwingen

--resource string

    Ressourcenschlüssel des Dashboards zur Überwachung auf Änderungen

-d, --resource-dir string

    Verzeichnis zum Schreiben der Konfiguration in (Standardressourcen)

--watch

    Achten Sie auf Änderungen am Dashboard, und aktualisieren Sie die Konfiguration.

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird eine Konfiguration durch eine vorhandene Dashboard-ID generiert:

databricks bundle generate dashboard --existing-id abc123

Sie können auch eine Konfiguration für ein vorhandenes Dashboard anhand des Arbeitsbereichspfads generieren. Kopieren Sie den Arbeitsbereichspfad für ein Dashboard aus der Arbeitsbereichs-UI.

Der folgende Befehl generiert z. B. eine neue baby_gender_by_county.dashboard.yml-Datei im resources-Bündelprojektordner, der das YAML unten enthält, und lädt die baby_gender_by_county.lvdash.json-Datei in den src-Projektordner herunter.

databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
  dashboards:
    baby_gender_by_county:
      display_name: 'Baby gender by county'
      warehouse_id: aae11o8e6fe9zz79
      file_path: ../src/baby_gender_by_county.lvdash.json

databricks bundle "Job generieren"

Generieren Sie die Bundlekonfiguration für einen Auftrag.

Note

Derzeit werden nur Aufträge mit Notebookaufgaben von diesem Befehl unterstützt.

databricks bundle generate job [flags]

Optionen

--bind

    Binden Sie die generierte Ressource automatisch mit dem vorhandenen im Arbeitsbereich.

-d, --config-dir string

    Dir-Pfad, in dem die Ausgabekonfiguration gespeichert wird (Standard "Resources")

--existing-job-id int

    Auftrags-ID des Auftrags zum Generieren der Konfiguration für

-f, --force

    Überschreiben vorhandener Dateien im Ausgabeverzeichnis erzwingen

-s, --source-dir string

    Dir-Pfad, in dem die heruntergeladenen Dateien gespeichert werden (Standard "src")

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird eine neue hello_job.yml Datei im resources Paketprojektordner generiert, der das folgende YAML enthält, und der simple_notebook.py Datei wird in den src Projektordner heruntergeladen. Außerdem bindet sie die generierte Ressource an den vorhandenen Auftrag im Arbeitsbereich.

databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
  jobs:
    hello_job:
      name: 'Hello Job'
      tasks:
        - task_key: run_notebook
          email_notifications: {}
          notebook_task:
            notebook_path: ../src/simple_notebook.py
            source: WORKSPACE
          run_if: ALL_SUCCESS
      max_concurrent_runs: 1

databricks-Bundle-Pipeline erstellen

Generieren Sie die Bundlekonfiguration für eine Pipeline.

databricks bundle generate pipeline [flags]

Optionen

--bind

    Binden Sie die generierte Ressource automatisch mit dem vorhandenen im Arbeitsbereich.

-d, --config-dir string

    Dir-Pfad, in dem die Ausgabekonfiguration gespeichert wird (Standard "Resources")

--existing-pipeline-id string

    ID der Pipeline zum Generieren der Konfiguration für

-f, --force

    Überschreiben vorhandener Dateien im Ausgabeverzeichnis erzwingen

-s, --source-dir string

    Dir-Pfad, in dem die heruntergeladenen Dateien gespeichert werden (Standard "src")

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird eine Konfiguration für eine vorhandene Pipeline generiert:

databricks bundle generate pipeline --existing-pipeline-id abc-123-def

databricks bundle init

Initialisieren Sie ein neues Bündel mithilfe einer Bündelvorlage. Vorlagen können konfiguriert werden, um den Benutzer zur Eingabe von Werten aufzufordern. Siehe Databricks Asset Bundle-Projektvorlagen.

databricks bundle init [TEMPLATE_PATH] [flags]

Argumente

TEMPLATE_PATH

    Vorlage, die für die Initialisierung verwendet werden soll (optional)

Optionen

--branch string

    Git Branch, der für die Vorlageninitialisierung verwendet werden soll

--config-file string

    JSON-Datei mit Schlüsselwertpaaren von Eingabeparametern, die für die Vorlageninitialisierung erforderlich sind.

--output-dir string

    Verzeichnis zum Schreiben der initialisierten Vorlage in.

--tag string

    Git-Tag für die Vorlageninitialisierung

--template-dir string

    Verzeichnispfad innerhalb eines Git-Repositorys, das die Vorlage enthält.

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird eine Liste der Standardbundlevorlagen angezeigt, aus denen Sie auswählen können:

databricks bundle init

Im folgenden Beispiel wird ein Bundle mit der Standardvorlage Python initialisiert:

databricks bundle init default-python

Um ein Databricks-Objektbundle mit einer benutzerdefinierten Databricks Asset Bundle-Vorlage zu erstellen, geben Sie den benutzerdefinierten Vorlagenpfad an:

databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"

Im folgenden Beispiel wird ein Bundle aus einem Git-Repository initialisiert:

databricks bundle init https://github.com/my/repository

Im folgenden Beispiel wird eine bestimmte Verzweigung initialisiert:

databricks bundle init --branch main

databricks-Bundle öffnen

Navigieren Sie zu einer Bündelressource im Arbeitsbereich, und geben Sie die zu öffnende Ressource an. Wenn kein Ressourcenschlüssel angegeben ist, gibt dieser Befehl eine Liste der Ressourcen des Bundles aus, aus denen Sie auswählen möchten.

databricks bundle open [flags]

Optionen

--force-pull

    Überspringen des lokalen Caches und Laden des Zustands aus dem Remotearbeitsbereich

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird ein Browser gestartet und im Bündel im Databricks-Arbeitsbereich zum baby_gender_by_county Dashboard navigiert, das für das Bundle konfiguriert ist:

databricks bundle open baby_gender_by_county

Databricks-Bündelplan

Zeigen Sie den Bereitstellungsplan für die aktuelle Paketkonfiguration an.

Dieser Befehl erstellt das Bundle und zeigt die Aktionen an, die für Ressourcen ausgeführt werden, die bereitgestellt würden, ohne Änderungen vorzunehmen. Damit können Sie Änderungen in der Vorschau sehen, bevor bundle deploy ausgeführt wird.

databricks bundle plan [flags]

Optionen

-c, --cluster-id string

    Überschreiben Sie den Cluster in der Bereitstellung mit der angegebenen Cluster-ID.

--force

    Erzwingen der Git-Verzweigungsüberprüfung.

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird der Bereitstellungsplan für ein Bundle ausgegeben, das ein Python-Rad erstellt und einen Auftrag und eine Pipeline definiert:

databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline

databricks-Paket ausführen

Führen Sie einen Auftrag, eine Pipeline oder ein Skript aus. Wenn Sie keine Ressource angeben, zeigt das System definierte Aufträge, Pipelines und Skripts zur Auswahl an. Alternativ können Sie den Auftrag oder den Pipelineschlüssel oder den Skriptnamen angeben, der in den Bundlekonfigurationsdateien deklariert ist.

databricks bundle run [flags] [KEY]

Überprüfen einer Pipeline

Wenn Sie eine Pipelinevalidierung ausführen möchten, verwenden Sie die --validate-only-Option, wie im folgenden Beispiel gezeigt:

databricks bundle run --validate-only my_pipeline

Auftragsparameter übergeben

Um Auftragsparameter zu übergeben, verwenden Sie die Option --params gefolgt von kommagetrennten Schlüsselwertpaaren, wobei der Schlüssel der Parametername ist. Beispielsweise legt der folgende Befehl den Parameter mit dem Namen message auf HelloWorld für den Auftrag hello_job fest:

databricks bundle run --params message=HelloWorld hello_job

Note

Wie in den folgenden Beispielen gezeigt, können Sie Parameter mithilfe der Auftragsaufgabenoptionen an Auftragsaufgaben übergeben, aber die Option ist die --params empfohlene Methode zum Übergeben von Auftragsparametern. Ein Fehler tritt auf, wenn Auftragsparameter für einen Auftrag angegeben werden, der keine Auftragsparameter definiert hat oder wenn Vorgangsparameter für einen Auftrag angegeben werden, für den Auftragsparameter definiert sind.

Sie können auch Schlüsselwort- oder Positionsargumente angeben. Wenn der angegebene Auftrag Auftragsparameter verwendet oder der Auftrag über eine Notizbuchaufgabe mit Parametern verfügt, werden die Flagnamen den Parameternamen zugeordnet:

databricks bundle run hello_job -- --key1 value1 --key2 value2

Oder wenn der angegebene Auftrag keine Auftragsparameter verwendet und der Auftrag über eine Python-Dateiaufgabe oder eine Python-Radaufgabe verfügt:

databricks bundle run my_job -- value1 value2 value3

Eine Beispielauftragsdefinition mit Parametern finden Sie unter Auftrag mit Parametern.

Ausführen von Skripts

Zum Ausführen von Skripts wie Integrationstests mit den konfigurierten Authentifizierungsanmeldeinformationen eines Bundles können Sie skripts entweder inline ausführen oder ein skript ausführen, das in der Bundlekonfiguration definiert ist. Skripts werden mit dem gleichen Authentifizierungskontext ausgeführt, der im Bundle konfiguriert ist.

  • Fügen Sie einen doppelten Bindestrich (--) nach bundle run zum Ausführen von Skripten inline an. Mit dem folgenden Befehl wird beispielsweise das aktuelle Arbeitsverzeichnis des aktuellen Benutzers ausgegeben:

    databricks bundle run -- python3 -c 'import os; print(os.getcwd())'
    
  • Alternativ können Sie ein Skript innerhalb der scripts Zuordnung in Ihrer Bundlekonfiguration definieren und anschließend bundle run zum Ausführen des Skripts verwenden.

    scripts:
      my_script:
        content: python3 -c 'import os; print(os.getcwd())'
    
    databricks bundle run my_script
    

    Weitere Informationen zur scripts Konfiguration finden Sie unter Skripts und Skripts.

Bündelauthentifizierungsinformationen werden mithilfe von Umgebungsvariablen an untergeordnete Prozesse übergeben. Siehe Databricks unified authentication.

Argumente

KEY

    Der eindeutige Bezeichner der auszuführenden Ressource (optional)

Optionen

--no-wait

    Warten Sie nicht, bis die Ausführung abgeschlossen ist.

--restart

    Starten Sie die Ausführung neu, wenn sie bereits ausgeführt wird.

Globale Kennzeichnungen

Auftragskennzeichnungen

Die folgenden Flags sind Parameterkennzeichnungen auf Auftragsebene. Siehe Konfigurieren von Auftragsparametern.

--params stringToString

    kommagetrennte k=v-Paare für Auftragsparameter (Standard [])

Auftragsaufgabenkennzeichnungen

Die folgenden Flags sind Parameterkennzeichnungen auf Taskebene. Weitere Informationen finden Sie unter Konfigurieren von Aufgabenparametern. Databricks empfiehlt die Verwendung von Parametern auf Auftragsebene (--params) über Parameter auf Vorgangsebene.

--dbt-commands strings

    Eine Liste der Befehle, die für Aufträge mit DBT-Aufgaben ausgeführt werden sollen.

--jar-params strings

    Eine Liste der Parameter für Aufträge mit Spark JAR-Aufgaben.

--notebook-params stringToString

    Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit Notizbuchaufgaben. (Standard [])

--pipeline-params stringToString

    Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit Pipelinevorgängen. (Standard [])

--python-named-params stringToString

    Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit Python-Radaufgaben. (Standard [])

--python-params strings

    Eine Liste der Parameter für Aufträge mit Python-Aufgaben.

--spark-submit-params strings

    Eine Liste der Parameter für Aufträge mit Spark submit tasks.

--sql-params stringToString

    Eine Zuordnung von Schlüsseln zu Werten für Aufträge mit SQL-Aufgaben. (Standard [])

Pipelinekennzeichnungen

Die folgenden Flags sind Pipelineflags.

--full-refresh strings

    Liste der Tabellen, die zurückgesetzt und neu komputiert werden sollen.

--full-refresh-all

    Durchführen eines vollständigen Zurücksetzens und Neukompilierens von Diagrammen.

--refresh strings

    Liste der zu aktualisierenden Tabellen.

--refresh-all

    Führen Sie eine vollständige Diagrammaktualisierung aus.

--validate-only

    Führen Sie eine Aktualisierung aus, um die Richtigkeit des Diagramms zu überprüfen.

Beispiele

Im folgenden Beispiel wird ein Auftrag hello_job im Standardziel ausgeführt:

databricks bundle run hello_job

Im folgenden Beispiel wird ein Auftrag hello_job im Kontext eines mit dem Namen devdeklarierten Ziels ausgeführt:

databricks bundle run -t dev hello_job

Im folgenden Beispiel wird die Ausführung eines vorhandenen Auftrags abgebrochen und neu gestartet:

databricks bundle run --restart hello_job

Im folgenden Beispiel wird eine Pipeline mit vollständiger Aktualisierung ausgeführt:

databricks bundle run my_pipeline --full-refresh-all

Im folgenden Beispiel wird ein Befehl im Bundlekontext ausgeführt:

databricks bundle run -- echo "hello, world"

Databricks-Bundle-Schema

Zeigen Sie das JSON-Schema für die Bundlekonfiguration an.

databricks bundle schema [flags]

Optionen

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird das JSON-Schema für die Bundlekonfiguration ausgegeben:

databricks bundle schema

Um das Paketkonfigurationsschema als JSON-Datei auszugeben, führen Sie den bundle schema Befehl aus, und leiten Sie die Ausgabe an eine JSON-Datei um. Sie können z. B. eine Im aktuellen Verzeichnis benannte bundle_config_schema.json Datei generieren:

databricks bundle schema > bundle_config_schema.json

Zusammenfassung des Databricks-Bundles

Geben Sie eine Zusammenfassung der Identität und Ressourcen eines Bündels aus, einschließlich Deep-Links für Ressourcen, sodass Sie einfach zu der Ressource im Databricks-Arbeitsbereich navigieren können.

databricks bundle summary [flags]

Tip

Sie können auch bundle open verwenden, um zu einer Ressource im Databricks-Arbeitsbereich zu navigieren. Siehe "databricks bundle open".

Optionen

--force-pull

    Überspringen des lokalen Caches und Laden des Zustands aus dem Remotearbeitsbereich

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird eine Zusammenfassung der bereitgestellten Ressourcen eines Bundles ausgegeben:

databricks bundle summary

Die folgende Ausgabe ist die Zusammenfassung eines Bundles, my_pipeline_bundle das einen Auftrag und eine Pipeline definiert:

Name: my_pipeline_bundle
Target: dev
Workspace:
  Host: https://myworkspace.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
  Jobs:
    my_project_job:
      Name: [dev someone] my_project_job
      URL:  https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
  Pipelines:
    my_project_pipeline:
      Name: [dev someone] my_project_pipeline
      URL:  https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999

databricks Bundle-Synchronisation

Führen Sie eine unidirektionale Synchronisierung der Dateiänderungen eines Bundles innerhalb eines lokalen Dateisystemverzeichnisses mit einem Verzeichnis innerhalb eines Azure Databricks-Remotearbeitsbereichs durch.

Note

Mit bundle sync-Befehlen können Dateiänderungen aus einem Verzeichnis innerhalb eines Azure Databricks-Remotearbeitsbereichs nicht mit einem Verzeichnis innerhalb eines lokalen Dateisystems synchronisiert werden.

databricks bundle sync [flags]

databricks bundle sync-Befehle funktionieren auf die gleiche Weise wie databricks sync-Befehle und werden zur Verbesserung der Produktivität bereitgestellt. Informationen zur Befehlsverwendung finden Sie unter sync "Befehl".

Optionen

--dry-run

    Simulieren der Synchronisierungsausführung, ohne tatsächliche Änderungen vorzunehmen

--full

    Vollständige Synchronisierung durchführen (Standard ist inkrementell)

--interval duration

    Dateisystemabfragungsintervall (für --watch) (Standard 1s)

--output type

    Typ des Ausgabeformats

--watch

    Überwachen des lokalen Dateisystems für Änderungen

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird eine Trockenlaufsynchronisierung ausgeführt:

databricks bundle sync --dry-run

Im folgenden Beispiel werden Änderungen automatisch überwacht und synchronisiert:

databricks bundle sync --watch

Im folgenden Beispiel wird eine vollständige Synchronisierung ausgeführt:

databricks bundle sync --full

Führen Sie den Befehl databricks bundle validate aus

Überprüfen sie, ob die Bundlekonfigurationsdateien syntaktisch korrekt sind.

databricks bundle validate [flags]

Standardmäßig gibt dieser Befehl eine Zusammenfassung der Paketidentität zurück:

Name: MyBundle
Target: dev
Workspace:
  Host: https://my-host.cloud.databricks.com
  User: someone@example.com
  Path: /Users/someone@example.com/.bundle/MyBundle/dev

Validation OK!

Note

Der bundle validate Befehl gibt Warnungen aus, wenn Ressourceneigenschaften in den Bundlekonfigurationsdateien definiert sind, die im Schema des entsprechenden Objekts nicht gefunden werden.

Wenn Sie nur eine Zusammenfassung der Identität und Ressourcen des Bundles ausgeben möchten, verwenden Sie die Bundlezusammenfassung.

Optionen

Globale Kennzeichnungen

Beispiele

Im folgenden Beispiel wird die Bundlekonfiguration überprüft:

databricks bundle validate

Globale Kennzeichnungen

--debug

  Gibt an, ob die Debugprotokollierung aktiviert werden soll.

-h oder --help

    Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen.

--log-file Schnur

    Eine Zeichenfolge, die die Datei darstellt, in die Ausgabeprotokolle geschrieben werden sollen. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben.

--log-format Format

    Der Protokollformattyp text oder json. Der Standardwert ist text.

--log-level Schnur

    Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert.

-o, --output Typ

    Der Befehlsausgabetyp text oder json. Der Standardwert ist text.

-p, --profile Schnur

    Der Name des Profils in der ~/.databrickscfg Datei, das zum Ausführen des Befehls verwendet werden soll. Wenn dieses Flag nicht angegeben ist und das Profil existiert, wird das benannte DEFAULT Profil verwendet.

--progress-format Format

    Das Format zum Anzeigen von Statusprotokollen: default, , append, inplaceoder json

-t, --target Schnur

    Falls zutreffend, das zu verwendende Bündelziel

--var strings

    Legen Sie Werte für Variablen fest, die in der Bundlekonfiguration definiert sind. Beispiel: --var="foo=bar"