Freigeben über


Unterstützte Verbindungseigenschaften

In diesem Artikel werden die Verbindungseigenschaften beschrieben, die vom Databricks DRIVER, Version 3 und höher, unterstützt werden.

Authentifizierungs- und Proxyeigenschaften

Die folgenden Authentifizierungs- und Proxyeigenschaften werden vom Databricks JDBC Driver unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.

Eigentum Standardwert BESCHREIBUNG
AsyncExecPollInterval 200 Die Zeit in Millisekunden zwischen jeder Abfrage des asynchronen Abfrageausführungsstatus. Asynchron bezieht sich auf die Tatsache, dass der RPC-Aufruf, der zur Ausführung einer Abfrage gegen Spark verwendet wird, asynchron ist. Das bedeutet nicht, dass asynchrone Vorgänge von JDBC unterstützt werden.
Auth_Flow 0 Der OAuth2-Authentifizierungsfluss für die Treiberverbindung. Diese Eigenschaft ist erforderlich, wenn AuthMech11 ist.
Auth_JWT_Alg RS256 Der Algorithmus für die JWT-Authentifizierung mit privatem Schlüssel. Die unterstützten Algorithmen sind: RSA: RS256, RS384, RS512, PS256, PS384, PS512 und EC: ES256, ES384, ES512
Auth_JWT_Key_File null Der Pfad zur Privaten Schlüsseldatei (PEM-Format) für die JWT-Authentifizierung.
Auth_JWT_Key_Passphrase null Die Passphrase zum Entschlüsseln eines verschlüsselten privaten Schlüssels.
Auth_KID null Der Schlüsselbezeichner (KEY Identifier, KID), der für die JWT-Authentifizierung erforderlich ist. Dies ist obligatorisch, wenn Sie JWT mit privatem Schlüssel verwenden.
Auth_RefreshToken null Das OAuth2-Refresh-Token, das verwendet wird, um ein neues Zugriffstoken abzurufen.
Auth_Scope all-apis Der Authentifizierungsbereich für OAuth2-Flüsse.
AuthMech Erforderlich Der Authentifizierungsmechanismus, bei dem 3 den Mechanismus angibt, ist ein persönliches Azure Databricks-Zugriffstoken, und 11 gibt an, dass der Mechanismus OAuth 2.0-Token ist. Für jeden Mechanismus sind zusätzliche Eigenschaften erforderlich. Weitere Informationen finden Sie unter Authentifizieren des Treibers.
AzureTenantId null Die Azure-Mandanten-ID für azurespezifische Authentifizierung.
CFProxyAuth 0 Bei Festlegung auf 1 verwendet der Treiber den Benutzernamen und das Kennwort für die Proxyauthentifizierung, dargestellt durch CFProxyUID und CFProxyPwd.
CFProxyHost null Eine Zeichenfolge, die den Namen des Proxyhosts darstellt, der verwendet werden soll, wenn UseCFProxy auch auf 1 festgelegt ist.
CFProxyPort null Ein Integer, der die Zahl des Proxyports darstellt, der verwendet werden soll, wenn UseCFProxy auch auf 1 festgelegt ist.
CFProxyPwd null Eine Zeichenfolge, die das Kennwort darstellt, der für die Proxyauthentifizierung verwendet werden soll, wenn CFProxyAuth und UseCFProxy auch auf 1 festgelegt sind.
CFProxyUID null Eine Zeichenfolge, die den Benutzernamen darstellt, der für die Proxyauthentifizierung verwendet werden soll, wenn CFProxyAuth und UseCFProxy auch auf 1 festgelegt sind.
ConnCatalog oder catalog SPARK Der Name des zu verwendenden Standardkatalogs.
ConnSchema oder schema default Der Name des zu verwendenden Standardschemas. Sie können dies entweder angeben, indem Sie <schema> in der URL durch den Namen des zu verwendenden Schemas ersetzen oder indem Sie die Eigenschaft ConnSchema auf den Namen des zu verwendenden Schemas setzen.
EnableOIDCDiscovery 1 Bei Festlegung auf 1, wird die OpenID Connect-Ermittlungs-URL verwendet.
EnableTokenCache 1 Wenn dieser Wert auf 1 gesetzt ist, kann das Zwischenspeichern von OAuth-Token die Leistung verbessern.
GoogleCredentialsFile null Der Pfad zur JSON-Schlüsseldatei für die Google Service-Kontoauthentifizierung.
GoogleServiceAccount null Aktiviert die Authentifizierung mit einem Google-Dienstkonto.
OAuth2ClientId null Die OAuth2-Client-ID für die Authentifizierung. Standardmäßig wird databricks-sql-jdbc für AWS, GCP und Azure verwendet. Für erweiterte OAuth-Konfigurationen ist eine benutzerdefinierte Client-ID erforderlich.
OAuth2ConnAuthAuthorizeEndpoint null Die url des Autorisierungsendpunkts, die in einem OAuth2-Fluss verwendet wird.
OAuth2ConnAuthTokenEndpoint null Die Tokenendpunkt-URL für den OAuth2-Fluss.
OAuth2RedirectUrlPort 8020 Der OAuth2-Umleitungs-URL-Port für browserbasierte Authentifizierungsflüsse.
OIDCDiscoveryEndpoint null Die OpenID Connect-Ermittlungs-URL zum Abrufen der OIDC-Konfiguration.
ProxyAuth 0 Bei Festlegung auf 1 verwendet der Treiber den Benutzernamen und das Kennwort für die Proxyauthentifizierung, dargestellt durch ProxyUID und ProxyPwd.
ProxyHost null Eine Zeichenfolge, die den Namen des Proxyhosts darstellt, der verwendet werden soll, wenn UseProxy auch auf 1 festgelegt ist.
ProxyPort null Ein Integer, der die Zahl des Proxyports darstellt, der verwendet werden soll, wenn UseProxy auch auf 1 festgelegt ist.
ProxyPwd null Eine Zeichenfolge, die das Kennwort darstellt, der für die Proxyauthentifizierung verwendet werden soll, wenn ProxyAuth und UseProxy auch auf 1 festgelegt sind.
ProxyUID null Eine Zeichenfolge, die den Benutzernamen darstellt, der für die Proxyauthentifizierung verwendet werden soll, wenn ProxyAuth und UseProxy auch auf 1 festgelegt sind.
TokenCachePassPhrase null Die Passphrase, die für die OAuth U2M-Tokencacheverschlüsselung verwendet werden soll.
UseCFProxy 0 Bei Festlegung auf 1, verwendet der Treiber die Cloud-Abrufproxyeinstellungen, falls diese bereitgestellt werden, andernfalls den regulären Proxy.
UseJWTAssertion false Aktiviert die JWT-Authentifizierung für private Schlüssel für M2M-Anwendungsfälle, in denen die Authentifizierung des geheimen Clientschlüssels eingeschränkt ist.
UseProxy 0 Bei Festlegung auf 1 verwendet der Treiber die bereitgestellten Proxyeinstellungen (z. B. ProxyAuth, ProxyHost, ProxyPort, ProxyPwd und ProxyUID).
UseSystemProxy 0 Bei Festlegung auf 1 verwendet der Treiber die Proxyeinstellungen, die auf Systemebene festgelegt wurden. Wenn in der Verbindungs-URL zusätzliche Proxy-Eigenschaften festgelegt sind, haben diese zusätzlichen Proxy-Eigenschaften Vorrang vor denen, die auf der Systemebene festgelegt wurden.

Konfigurationseigenschaften des SSL-Vertrauensspeichers

Die folgenden Konfigurationseigenschaften des SSL-Vertrauensspeichers werden vom Databricks JDBC-Treiber unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.

Eigentum Standardwert BESCHREIBUNG
AcceptUndeterminedRevocation 0 Wenn auf 1 gesetzt, akzeptiert Zertifikate mit unbestimmtem Sperrstatus, wenn die Zertifikatsperrüberprüfung aktiviert ist.
AllowSelfSignedCerts 0 Bei Festlegung auf 1, ermöglicht der Treiber Verbindungen mit Servern mit selbstsignierten SSL-Zertifikaten.
CheckCertificateRevocation 0 Bei Festlegung auf 1, überprüft der Treiber, ob das SSL-Zertifikat widerrufen wurde.
SSL 1 Gibt an, ob der Connector über einen SSL-fähigen Socket mit dem Spark-Server kommuniziert.
SSLKeyStore null Der Pfad zur SSL-Schlüsselspeicherdatei für die Clientzertifikatauthentifizierung. Standardmäßig wird die servergeschützte TLS-Authentifizierung ausgeführt, sodass kein Clientzertifikat erforderlich ist.
SSLKeyStorePwd null Das Kennwort für die SSL-Schlüsselspeicherdatei.
SSLKeyStoreType JKS Der Typ des SSL-Schlüsselspeichers. Gültige Werte sind JKS, PKCS12, JCEKS, DKS und PKCS11.
SSLTrustStore null Der Pfad zur Vertrauensspeicherdatei für die SSL-Zertifikatüberprüfung.
SSLTrustStorePassword null Das Kennwort für die Vertrauensspeicherdatei, wenn sie kennwortgeschützt ist.
SSLTrustStoreType JKS Der Typ des Vertrauensspeichers, beispielsweise JKS oder PKCS12. Wenn nicht angegeben, wird der Treiber standardmäßig im JKS-Vertrauensspeicher gespeichert. Gültige Typen sind JKS, PKCS12und BCFKS.
UseSystemTrustStore 0 Bei Festlegung auf 1, verwendet der Treiber den Standardvertrauensspeicher des Systems für die SSL-Zertifikatüberprüfung.

Vertrauensspeichertypen

Der JDBC-Treiber unterstützt die folgenden SSL-Modi und Vertrauensspeichertypen.

Selbstsignierter Zertifikatmodus

Um den selbstsignierten Zertifikatmodus zu verwenden, legen Sie die Verbindungseigenschaft AllowSelfSignedCerts=1fest. Dieser Modus verwendet eine vertrauende Socket-Factory, die alle Zertifikate akzeptiert.

Benutzerdefinierter Trust Store

Um einen benutzerdefinierten Vertrauensspeicher zu verwenden, geben Sie eine benutzerdefinierte Vertrauensspeicherdatei in der SSLTrustStore Verbindungseigenschaft an. Dieser Vertrauensspeicher wird direkt aus dem angegebenen Pfad geladen und verwendet die Zertifikate für die SSL-Zertifikatüberprüfung. Er kann in JKS, PKCS12 oder anderen unterstützten Formaten verwendet werden.

Sie müssen die folgenden zusätzlichen Verbindungseigenschaften angeben:

  • SSLTrustStore: Pfad zur Vertrauensspeicherdatei
  • SSLTrustStorePassword: Kennwort für den Vertrauensspeicher (falls erforderlich)
  • SSLTrustStoreType: Typ des Vertrauensspeichers (optional, Standardeinstellung ist JKS, falls nichts angegeben wird)

Vertrauensspeicher der Java-Systemeigenschaft

Um den Vertrauensspeicher des Systems zu verwenden, setzen Sie UseSystemTrustStore=1 und stellen Sie sicher, dass Sie keinen benutzerdefinierten Vertrauensspeicher festlegen. Geben Sie stattdessen einen Vertrauensspeicher mithilfe der Java-Systemeigenschaft javax.net.ssl.trustStorean. Diese Eigenschaft wird mithilfe des -D Flags auf JVM-Ebene festgelegt, z. B.:

java -Djavax.net.ssl.trustStore=/path/to/truststore.jks -Djavax.net.ssl.trustStorePassword=changeit ...

Der JDBC-Treiber sucht zuerst nach der Java-Systemeigenschaft javax.net.ssl.trustStore. Wenn sie festgelegt ist, wird diese Vertrauensspeicherdatei anstelle der Standardeinstellung des JDK verwendet. Wenn keine Systemeigenschaft festgelegt ist, wird der Standardmäßige Vertrauensspeicher (cacerts) des JDK verwendet, der mit $JAVA_HOME/lib/security/cacerts oder einem ähnlichen Pfad versehen ist.

JDK-Standardvertrauensspeicher (cacerts)

Der JDK verfügt über einen integrierten Vertrauensspeicher namens cacerts , der Zertifikate von bekannten Zertifizierungsstellen enthält, die die Überprüfung von Zertifikaten ermöglicht, die von diesen Zertifizierungsstellen ausgestellt wurden. Dieser Vertrauensspeicher befindet sich in der Regel unter $JAVA_HOME/lib/security/cacerts mit einem Standardpasswort "changeit" oder "changeme".

Um den JDK-Standardvertrauensspeicher zu verwenden, stellen Sie sicher, dass UseSystemTrustStore=1 konfiguriert ist und dass Sie keinen benutzerdefinierten Vertrauensspeicher oder einen Vertrauensspeicher in den Java-Systemeigenschaften angeben. Wenn ein Vertrauensspeicher auch mithilfe der Java-Systemeigenschaft javax.net.ssl.trustStoreangegeben wird, wird er ignoriert, wodurch sichergestellt wird, dass der Treiber nur Zertifikate aus dem standardmäßigen JDK-Vertrauensspeicher verwendet.

Reihenfolge der Vertrauensspeicher

Der Treiber verwendet die folgende Rangfolge, um zu bestimmen, welcher Vertrauensspeicher verwendet werden soll:

  1. Der in der Verbindungseigenschaft SSLTrustStore angegebene benutzerdefinierte Vertrauensspeicher
  2. Der in der Java-Systemeigenschaft javax.net.ssl.trustStore angegebene Vertrauensspeicher (wenn UseSystemTrustStore=1)
  3. Der Standardvertrauensspeicher des JDK (cacerts)

Sicherheitsempfehlungen

Um Ihre Verbindung sicher zu halten, empfiehlt Databricks Folgendes:

  • Für Produktionsumgebungen:

    • Verwenden Sie keinen selbstsignierten Zertifikatmodus (AllowSelfSignedCerts=1).
    • Verwenden Sie offiziell von CA unterzeichnete Zertifikate.
    • Verwenden Sie UseSystemTrustStore=1 , es sei denn, Sie benötigen einen benutzerdefinierten Trust Store.
  • Für benutzerdefinierte Vertrauensspeicher:

    • Wird beim Herstellen einer Verbindung mit Servern mit Zertifikaten verwendet, die sich nicht im Standardvertrauensspeicher befinden.
    • Stellen Sie sicher, dass der Vertrauensspeicher die vollständige Zertifikatskette enthält.
    • Schützen Sie Vertrauensspeicherdateien durch entsprechende Berechtigungen.

Wiederholungsstrategie-Eigenschaften

Die folgenden Eigenschaften der Wiederholungsstrategie werden vom Databricks JDBC Driver (OSS) unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.

Eigentum Standardwert BESCHREIBUNG
RateLimitRetry 1 Wenn 1 festgelegt ist, wird der Wiederholungsversuch bei Fehlern aufgrund von Ratenbegrenzung aktiviert.
RateLimitRetryTimeout 120 Neuverbindungs-Timeout bei Geschwindigkeitsbegrenzung in Sekunden.
TemporarilyUnavailableRetry 1 Wenn auf 1 gesetzt, wird das erneute Versuchen bei vorübergehend nicht verfügbaren Fehlern aktiviert.
TemporarilyUnavailableRetryTimeout 900 Das Timeout für vorübergehend nicht verfügbare Fehler in Sekunden wiederholen.
VolumeOperationRetryableHttpCode 408,429,500,502,503,504 Die durch Kommas getrennte Liste der wiederholbaren HTTP-Codes für die Einbindung des Unity-Katalogvolumens.
VolumeOperationRetryTimeout 15 Der Timeout für die Wiederholung von HTTP-Anforderungen zur Volumeerfassung im Unity-Katalog, in Minuten.

Leistungs- und Verbindungsverwaltungseigenschaften

Die folgenden Leistungs- und Verbindungsverwaltungseigenschaften werden vom Databricks ASPX-Treiber (OSS) unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.

Eigentum Standardwert BESCHREIBUNG
CloudFetchThreadPoolSize 16 Die Threadpoolgröße für Cloud-Abrufvorgänge.
DefaultStringColumnLength 255 Die maximale Anzahl von Zeichen, die in STRING-Spalten für die Metadatenberichterstattung enthalten sein können.
HttpConnectionPoolSize 100 Die maximale GRÖßE des HTTP-Verbindungspools.
IdleHttpConnectionExpiry 60 Die Ablaufzeit der Leerlauf-HTTP-Verbindung in Sekunden.
RowsFetchedPerBlock 2000000 Die maximale Anzahl von Zeilen, die eine Abfrage gleichzeitig zurückgibt. Dies gilt nur für Inlineergebnisse.
SocketTimeout 900 Der Socket-Timeout für Netzwerkoperationen, angegeben in Sekunden.

SQL-Konfigurationseigenschaften

Die folgenden SQL-Konfigurationseigenschaften werden vom Databricks JDBC-Treiber unterstützt. Diese werden auch unter Konfigurationsparameter beschrieben. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.

Eigentum Standardwert BESCHREIBUNG
ansi_mode TRUE Gibt an, ob das strikte ANSI-SQL-Verhalten für bestimmte Funktionen und Umwandlungsregeln aktiviert werden soll.
enable_photon TRUE Ob die vektorisierte Photon-Abfrage-Engine aktiviert werden soll.
legacy_time_parser_policy EXCEPTION Die Methoden zum Parsen und Formatieren von Daten und Zeitstempeln. Gültige Werte sind EXCEPTION, LEGACYund CORRECTED.
max_file_partition_bytes 128m Die maximale Anzahl von Bytes, die beim Lesen von auf Dateien basierenden Quellen in eine einzelne Partition gepackt werden sollen. Als Einstellung kann ein beliebiger Integer verwendet werden und optional eine Maßeinheit wie b (Bytes), k oder kb (1024 Bytes).
query_tags "" (leere Zeichenfolge) Eine durch Kommas getrennte Liste von Schlüssel-Wert-Tags, die an SQL-Abfragen zur Nachverfolgung und Analyse angefügt werden sollen, system.query.history.
read_only_external_metastore false Steuert, ob ein externer Metastore schreibgeschützt behandelt wird.
statement_timeout 172800 Legen Sie ein Timeout für SQL-Anweisungen zwischen 0 und 172800 Sekunden fest.
timezone UTC Legen Sie die lokale Zeitzone fest. Regions-IDs in der Form area/city, z. B. Amerika/Los_Angeles oder Zonenoffsets im Format (+|-)HH, (+|-)HH:mm oder (+|-)HH:mm:ss, z. B. -08, +01:00 oder -13:33:33. Außerdem wird UTC als Alias für +00:00 unterstützt
use_cached_result true Ob Databricks SQL die Ergebnisse zwischenspeichert und nach Möglichkeit wiederverwendet.

Protokollierungseigenschaften

Die folgenden Protokollierungseigenschaften werden vom Databricks JDBC-Treiber unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.

Eigentum Standardwert BESCHREIBUNG
LogFileCount 10 Die maximale Anzahl zulässiger Protokolldateien
LogFileSize 10 Die maximal zulässige Protokolldateigröße, die in MB angegeben ist
LogLevel OFF Die Protokollierungsebene. Hierbei handelt es sich um einen Wert von 0 bis 6:
  • 0: Alle Protokollierung deaktivieren.
  • 1: Aktivieren Sie die Protokollierung auf der FATAL-Ebene, wodurch sehr schwerwiegende Fehlerereignisse protokolliert werden, die den Connector zum Abbruch führen.
  • 2: Aktivieren Sie die Protokollierung auf fehlerebene, wodurch Fehlerereignisse protokolliert werden, die es dem Connector ermöglichen, die Ausführung fortzusetzen.
  • 3: Aktivieren Sie die Protokollierung auf der WARNUNGsstufe, die Ereignisse protokolliert, die zu einem Fehler führen können, wenn keine Aktion ausgeführt wird.
  • 4: Aktivieren Sie die Protokollierung auf der INFO-Ebene, in der allgemeine Informationen protokolliert werden, die den Fortschritt des Connectors beschreiben.
  • 5: Aktivieren Sie die Protokollierung auf DEBUG-Ebene, die detaillierte Informationen protokolliert, die für das Debuggen des Connectors nützlich sind.
  • 6: Aktivieren Sie die Protokollierung auf der TRACE-Ebene, die alle Connectoraktivitäten protokolliert.

Verwenden Sie diese Eigenschaft, um die Protokollierung im Connector zu aktivieren oder zu deaktivieren und um die Menge der in den Protokolldateien enthaltenen Details festzulegen.
LogPath Um den Standardpfad für Protokolle zu ermitteln, verwendet der Treiber den Für diese Systemeigenschaften festgelegten Wert in dieser Prioritätsreihenfolge:
  • user.dir
  • java.io.tmpdir
  • das aktuelle Verzeichnis, anders gesagt .
Der vollständige Pfad zu dem Ordner, in dem der Connector Protokolldateien speichert, wenn die Protokollierung aktiviert ist, als Zeichenfolge. Um sicherzustellen, dass die Verbindungs-URL mit allen JDBC-Anwendungen kompatibel ist, maskieren Sie den Backslash (\) in Ihrem Dateipfad, indem Sie einen weiteren Backslash eingeben.
Wenn der LogPath Wert ungültig ist, sendet der Connector die protokollierten Informationen an den Standardausgabedatenstrom (System.out).

Aktivieren und Konfigurieren der Protokollierung

Der JDBC-Treiber unterstützt die Frameworks Simple Logging Facade for Java (SLF4J) und java.util.logging (JUL). Der Treiber verwendet standardmäßig das JUL-Protokollierungsframework.

So aktivieren und konfigurieren Sie die Protokollierung für den JDBC-Treiber:

  1. Aktivieren Sie das Protokollierungsframework, das Sie verwenden möchten:

    • Legen Sie für die SLF4J-Protokollierung die Systemeigenschaft -Dcom.databricks.jdbc.loggerImpl=SLF4JLOGGER fest, und stellen Sie die SLF4J-Bindungsimplementierung (kompatibel mit SLF4J, Version 2.0.13 und höher) und entsprechende Konfigurationsdatei im Klassenpfad bereit.
    • Legen Sie für die JUL-Protokollierung die Systemeigenschaft -Dcom.databricks.jdbc.loggerImpl=JDKLOGGERfest. Dies ist die Standardeinstellung.
  2. Legen Sie die LogLevel Eigenschaft für die Verbindungszeichenfolge auf die gewünschte Informationsebene fest, die in Protokolldateien eingeschlossen werden soll.

  3. Legen Sie die LogPath Eigenschaft für die Verbindungszeichenfolge auf den vollständigen Pfad zum Ordner fest, in dem Protokolldateien gespeichert werden sollen.

    Die folgende Verbindungs-URL ermöglicht beispielsweise die Protokollierungsebene 6 und speichert die Protokolldateien im Ordner "C:temp":

    jdbc: databricks://localhost:11000;LogLevel=6;LogPath=C:\\temp
    
  4. Starten Sie Ihre JDBC-Anwendung neu und stellen Sie die Verbindung zum Server wieder her, um die Einstellungen anzuwenden.

Andere Featureeigenschaften

Die folgenden Eigenschaften ermöglichen Features im Databricks JDBC-Treiber. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.

Eigentum Standardwert BESCHREIBUNG
EnableArrow 1 Bei Festlegung auf 0" wird die Pfeil serialisierung für Ergebnisse deaktiviert, wodurch auch das Cloud Fetch-Verhalten deaktiviert wird, da das Pfeilformat für Cloud Fetch erforderlich ist.
EnableComplexDatatypeSupport 0 Bei Festlegung auf 1, unterstützung für komplexe Datentypen (ARRAYs, STRUCTs, MAPs) als systemeigene Java-Objekte anstelle von Zeichenfolgen ist aktiviert.
EnableDirectResults 1 Wenn auf 1 gesetzt, aktiviert dies direkte Ergebnisse für eine verbesserte Abfrageleistung.
EnableGeoSpatialSupport 0 Bei Festlegung auf 1, aktiviert die Unterstützung für geospatiale Datentypen (GEOMETRY und GEOGRAPHY) als strukturierte Java-Objekte. Erfordert EnableComplexDatatypeSupport=1 und EnableArrow=1 (Pfeil ist standardmäßig aktiviert). Wenn diese Option deaktiviert ist, werden Geospatialspalten im EWKT-Format als STRING zurückgegeben. Siehe ST-Geospatialfunktionen.
EnableSqlScripting 1 oder true Ermöglicht die UNTERSTÜTZUNG von SQL-Skripts für zusammengesetzte Anweisungsblöcke (BEGIN... END) und gespeicherte Prozeduraufrufe. Verfügbar in Treiberversion 1.0.10 und höher mit Databricks Runtime 16.3 und höher.
Gespeicherte Prozeduren erfordern Databricks Runtime 17.0 und höher und Treiberversion 3.0.1 und höher. Verwenden Sie Statement oder PreparedStatement, um Prozeduren aufzurufen. CallableStatement wird nicht unterstützt. Syntax und Beispiele finden Sie unter SQL-Skripting.
EnableMetricViewMetadata 0 Wenn dieser Wert festgelegt ist 1, werden erweiterte Metadatenvorgänge für Metrikansichten aktiviert. Weitere Informationen finden Sie unter "Arbeiten mit Metrikansichtsmetadaten" mithilfe des Databricks JDBC-Treibers.
EnableTelemetry 0 Wenn auf 1 gesetzt, ist Telemetrie aktiviert. Siehe Telemetrie.
EnableVolumeOperations 1oder true Die Clientinformationseigenschaft zum Aktivieren von Volumevorgängen in einem Datenstrom. Siehe "Verwalten von Dateien in Volumes" mit dem Databricks JDBC-Treiber. Standardmäßig ermöglicht diese Eigenschaft auch die REMOVE Operation auf einem Datenträger.
Wichtig: Sie müssen dies als Clientinformationseigenschaft festlegen. Wenn Sie sie nur in der Verbindungs-URL angeben, werden Volumevorgänge für einen Datenstrom nicht aktiviert.
MaxBatchSize 500 Die maximale Batchgröße für Batchvorgänge und Datenverarbeitung.
QueryResultCompressionType 1 Gültige Werte sind 0 (ohne Komprimierung) und 1 (für die LZ4-Komprimierung). Der Treiber setzt automatisch den Wert auf 0 (keine Komprimierung) für Inline-Ergebnisse, unabhängig von der konfigurierten Einstellung.
UserAgentEntry browser Der User-Agent-Eintrag, der in die HTTP-Anforderung aufgenommen werden soll. Der Wert weist folgendes Format auf: [ProductName]/[ProductVersion] [Comment]
UseThriftClient 1 Gibt an, ob der JDBC-Treiber den Thrift-Client oder die Anweisungsausführungs-APIs verwendet.
VolumeOperationAllowedLocalPaths `` Die durch Trennzeichen getrennte Liste der zulässigen lokalen Pfade zum Herunterladen und Hochladen von Unity Catalog-Volumeneinnahmedateien. Die Pfade enthalten auch Unterverzeichnisse. Wenn nicht angegeben, fällt dies auf den Wert von StagingAllowedLocalPaths, dann auf eine leere Zeichenfolge, die keine Einschränkungen angibt. Siehe "Verwalten von Dateien mithilfe von Volumes".
Wichtig: Wenn sich das Setup in einer mehrinstanzenfähigen Umgebung (z. B. BI-Tools oder Entwicklerdienste) befindet und die Benutzer die vollständige URL DER FUNKTION STEUERN, sollte der Dienst diese Eigenschaft auf einen Sandkastenspeicherort oder einen nicht vorhandenen Pfad festlegen. Dadurch wird verhindert, dass Benutzer willkürliche Dateien schreiben und die interne Bereitstellung des Diensts beeinträchtigen.

Telemetriesammlung

Telemetrie ermöglicht es Databricks, das Debugging zu optimieren und eine zeitnahe Problembehandlung durch das Sammeln folgender Informationen bereitzustellen:

  • Details zur Clientumgebung (Treiberversion, Laufzeit, Betriebssystemdetails)
  • Konfigurationen für JDBC-Verbindungen (schließt alle PII-Daten aus)
  • Messung der Vorgangslatenz
  • Ausführungsergebnisformat (Inline-JSON, Pfeil usw.)
  • Vorgangstypen (Ausführungsabfrage, Metadatenabfrage, Volumevorgänge)
  • Fehlerklassifizierungsdaten
  • Wiederholungsanzahl

Hinweis

Databricks behält strenge Datenschutzstandards bei, die sicherstellen, dass keine Sammlung von Abfrageinhalten, Ergebnissen oder personenbezogenen Informationen (PII) erfasst wird.