Freigeben über


Abfragen von SQL Server mit Azure Databricks

In diesem Artikel wird gezeigt, wie Sie Azure Databricks mit Microsoft SQL Server verbinden können, um Daten zu lesen und zu schreiben.

Von Bedeutung

Die Legacy-Abfrageverbunddokumentation wurde eingestellt und kann nicht aktualisiert werden. Die in diesem Inhalt genannten Konfigurationen werden nicht offiziell von Databricks unterstützt oder getestet. Wenn Lakehouse Federation Ihre Quelldatenbank unterstützt, empfiehlt Databricks stattdessen die Verwendung.

Konfigurieren einer Verbindung mit SQL Server

In Databricks Runtime 11.3 LTS und höher können Sie das sqlserver Schlüsselwort verwenden, um den enthaltenen Treiber für die Verbindung mit SQL Server zu verwenden. Verwenden Sie beim Arbeiten mit DataFrames die folgende Syntax:

Python

remote_table = (spark.read
  .format("sqlserver")
  .option("host", "hostName")
  .option("port", "port") # optional, can use default port 1433 if omitted
  .option("user", "username")
  .option("password", "password")
  .option("database", "databaseName")
  .option("dbtable", "schemaName.tableName") # (if schemaName not provided, default to "dbo")
  .load()
)

Scala

val remote_table = spark.read
  .format("sqlserver")
  .option("host", "hostName")
  .option("port", "port") // optional, can use default port 1433 if omitted
  .option("user", "username")
  .option("password", "password")
  .option("database", "databaseName")
  .option("dbtable", "schemaName.tableName") // (if schemaName not provided, default to "dbo")
  .load()

Geben Sie beim Arbeiten mit SQL sqlserver in der USING Klausel an und übergeben Sie Optionen beim Erstellen einer Tabelle, wie im folgenden Beispiel gezeigt:

DROP TABLE IF EXISTS sqlserver_table;
CREATE TABLE sqlserver_table
USING sqlserver
OPTIONS (
  dbtable '<schema-name.table-name>',
  host '<host-name>',
  port '1433',
  database '<database-name>',
  user '<username>',
  password '<password>'
);

Verwenden Sie den Legacy-JDBC-Treiber

In Databricks Runtime 10.4 LTS und früher müssen Sie Treiber und Konfigurationen mithilfe der JDBC-Einstellungen angeben. Im folgenden Beispiel wird eine Abfrage an SQL Server mithilfe seines JDBC-Treibers gestellt. Weitere Informationen zum Lesen, Schreiben, Konfigurieren von Parallelität und Abfrage-Pushdown finden Sie in Datenbankenabfragen mit JDBC.

Python

driver = "com.microsoft.sqlserver.jdbc.SQLServerDriver"

database_host = "<database-host-url>"
database_port = "1433" # update if you use a non-default port
database_name = "<database-name>"
table = "<table-name>"
user = "<username>"
password = "<password>"

url = f"jdbc:sqlserver://{database_host}:{database_port};database={database_name}"

remote_table = (spark.read
  .format("jdbc")
  .option("driver", driver)
  .option("url", url)
  .option("dbtable", table)
  .option("user", user)
  .option("password", password)
  .load()
)

Scala

val driver = "com.microsoft.sqlserver.jdbc.SQLServerDriver"

val database_host = "<database-host-url>"
val database_port = "1433" // update if you use a non-default port
val database_name = "<database-name>"
val table = "<table-name>"
val user = "<username>"
val password = "<password>"

val url = s"jdbc:sqlserver://{database_host}:{database_port};database={database_name}"

val remote_table = spark.read
  .format("jdbc")
  .option("driver", driver)
  .option("url", url)
  .option("dbtable", table)
  .option("user", user)
  .option("password", password)
  .load()