api 命令组

Note

此信息适用于 Databricks CLI 版本 0.205 及更高版本。 Databricks CLI 目前处于公共预览阶段。

Databricks CLI 的使用须遵守 Databricks 许可Databricks 隐私声明,包括任何数据使用规定。

使用 apiDatabricks CLI 中的命令组可以调用任何可用的 Databricks REST API。

你应当仅针对高级场景运行 api 命令,例如,Databricks CLI 尚未在相关命令中包装目标 Databricks REST API 的那些特定 Databricks REST API 的预览版。 有关命令组的列表,请参阅 Databricks CLI 命令

databricks API 删除

执行 DELETE 请求

databricks api delete PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    包含请求正文的内联 JSON 字符串或 @path 到 JSON 文件

全局标志

Examples

databricks api delete /api/2.0/jobs/runs/delete --json '{"run_id": 123}'

databricks API 获取

执行 GET 请求

databricks api get PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    包含请求正文的内联 JSON 字符串或 @path 到 JSON 文件

全局标志

Examples

以下示例获取工作区中可用群集的列表:

databricks api get /api/2.0/clusters/list

以下示例获取作业:

databricks api get /api/2.0/jobs/get --json '{"job_id": 123}'

Databricks API 头部

执行 HEAD 请求

databricks api head PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    包含请求正文的内联 JSON 字符串或 @path 到 JSON 文件

全局标志

Examples

databricks api head /api/2.0/clusters/list

databricks api 更新方法

执行 PATCH 请求

databricks api patch PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    包含请求正文的内联 JSON 字符串或 @path 到 JSON 文件

全局标志

Examples

databricks api patch /api/2.0/jobs/update --json '{"job_id": 123, "new_settings": {"name": "Updated Job"}}'

databricks API 提交

执行 POST 请求

databricks api post PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    包含请求正文的内联 JSON 字符串或 @path 到 JSON 文件

全局标志

Examples

以下示例获取有关工作区中指定群集的信息。

databricks api post /api/2.0/clusters/get --json '{
   "cluster_id": "1234-567890-abcde123"
}'

以下示例创建群集:

databricks api post /api/2.0/clusters/create --json '{"cluster_name": "test-cluster", "spark_version": "11.3.x-scala2.12"}'

更新工作区中指定群集的设置。

databricks api post /api/2.0/clusters/edit --json '{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}'

更新工作区中指定群集的设置。 从当前工作目录中名为 edit-cluster.json 的文件获取请求正文。

databricks api post /api/2.0/clusters/edit --json @edit-cluster.json

edit-cluster.json:

{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}

databricks API PUT请求

执行 PUT 请求

databricks api put PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    包含请求正文的内联 JSON 字符串或 @path 到 JSON 文件

全局标志

Examples

databricks api put /api/2.0/workspace/import --json @workspace-import.json

全局标志

--debug

  是否启用调试日志记录。

-h--help

    显示 Databricks CLI、相关命令组或相关命令的帮助。

--log-file 字符串

    一个字符串,表示要将输出日志写入到的文件。 如果未指定此标志,则默认会将输出日志写入到 stderr。

--log-format 格式

    日志格式类型,textjson。 默认值是 text

--log-level 字符串

    一个表示日志格式级别的字符串。 如果未指定,则禁用日志格式级别。

-o, --output 类型

    命令输出类型为textjson。 默认值是 text

-p, --profile 字符串

     ~/.databrickscfg 文件中用于运行命令的配置文件的名称。 如果未指定此标志,则如果存在,将使用名为 DEFAULT 的配置文件。

--progress-format 格式

    显示进度日志的格式: defaultappendinplacejson

-t, --target 字符串

    如适用,要使用的捆绑包目标