Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel werden die Verbindungseigenschaften beschrieben, die vom Databricks DRIVER, Version 3 und höher, unterstützt werden.
Authentifizierungs- und Proxyeigenschaften
Die folgenden Authentifizierungs- und Proxyeigenschaften werden vom Databricks JDBC Driver unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.
| Eigentum | Standardwert | BESCHREIBUNG |
|---|---|---|
AsyncExecPollInterval |
200 |
Die Zeit in Millisekunden zwischen jeder Abfrage des asynchronen Abfrageausführungsstatus. Asynchron bezieht sich auf die Tatsache, dass der RPC-Aufruf, der zur Ausführung einer Abfrage gegen Spark verwendet wird, asynchron ist. Das bedeutet nicht, dass asynchrone Vorgänge von JDBC unterstützt werden. |
Auth_Flow |
0 |
Der OAuth2-Authentifizierungsfluss für die Treiberverbindung. Diese Eigenschaft ist erforderlich, wenn AuthMech11 ist. |
Auth_JWT_Alg |
RS256 |
Der Algorithmus für die JWT-Authentifizierung mit privatem Schlüssel. Die unterstützten Algorithmen sind: RSA: RS256, RS384, RS512, PS256, PS384, PS512 und EC: ES256, ES384, ES512 |
Auth_JWT_Key_File |
null |
Der Pfad zur Privaten Schlüsseldatei (PEM-Format) für die JWT-Authentifizierung. |
Auth_JWT_Key_Passphrase |
null |
Die Passphrase zum Entschlüsseln eines verschlüsselten privaten Schlüssels. |
Auth_KID |
null |
Der Schlüsselbezeichner (KEY Identifier, KID), der für die JWT-Authentifizierung erforderlich ist. Dies ist obligatorisch, wenn Sie JWT mit privatem Schlüssel verwenden. |
Auth_RefreshToken |
null |
Das OAuth2-Refresh-Token, das verwendet wird, um ein neues Zugriffstoken abzurufen. |
Auth_Scope |
all-apis |
Der Authentifizierungsbereich für OAuth2-Flüsse. |
AuthMech |
Erforderlich | Der Authentifizierungsmechanismus, bei dem 3 den Mechanismus angibt, ist ein persönliches Azure Databricks-Zugriffstoken, und 11 gibt an, dass der Mechanismus OAuth 2.0-Token ist. Für jeden Mechanismus sind zusätzliche Eigenschaften erforderlich. Weitere Informationen finden Sie unter Authentifizieren des Treibers. |
AzureTenantId |
null |
Die Azure-Mandanten-ID für azurespezifische Authentifizierung. |
CFProxyAuth |
0 |
Bei Festlegung auf 1 verwendet der Treiber den Benutzernamen und das Kennwort für die Proxyauthentifizierung, dargestellt durch CFProxyUID und CFProxyPwd. |
CFProxyHost |
null |
Eine Zeichenfolge, die den Namen des Proxyhosts darstellt, der verwendet werden soll, wenn UseCFProxy auch auf 1 festgelegt ist. |
CFProxyPort |
null |
Ein Integer, der die Zahl des Proxyports darstellt, der verwendet werden soll, wenn UseCFProxy auch auf 1 festgelegt ist. |
CFProxyPwd |
null |
Eine Zeichenfolge, die das Kennwort darstellt, der für die Proxyauthentifizierung verwendet werden soll, wenn CFProxyAuth und UseCFProxy auch auf 1 festgelegt sind. |
CFProxyUID |
null |
Eine Zeichenfolge, die den Benutzernamen darstellt, der für die Proxyauthentifizierung verwendet werden soll, wenn CFProxyAuth und UseCFProxy auch auf 1 festgelegt sind. |
ConnCatalog oder catalog |
SPARK |
Der Name des zu verwendenden Standardkatalogs. |
ConnSchema oder schema |
default |
Der Name des zu verwendenden Standardschemas. Sie können dies entweder angeben, indem Sie <schema> in der URL durch den Namen des zu verwendenden Schemas ersetzen oder indem Sie die Eigenschaft ConnSchema auf den Namen des zu verwendenden Schemas setzen. |
EnableOIDCDiscovery |
1 |
Bei Festlegung auf 1, wird die OpenID Connect-Ermittlungs-URL verwendet. |
EnableTokenCache |
1 |
Wenn dieser Wert auf 1 gesetzt ist, kann das Zwischenspeichern von OAuth-Token die Leistung verbessern. |
GoogleCredentialsFile |
null |
Der Pfad zur JSON-Schlüsseldatei für die Google Service-Kontoauthentifizierung. |
GoogleServiceAccount |
null |
Aktiviert die Authentifizierung mit einem Google-Dienstkonto. |
OAuth2ClientId |
null |
Die OAuth2-Client-ID für die Authentifizierung. Standardmäßig wird databricks-sql-jdbc für AWS, GCP und Azure verwendet. Für erweiterte OAuth-Konfigurationen ist eine benutzerdefinierte Client-ID erforderlich. |
OAuth2ConnAuthAuthorizeEndpoint |
null |
Die url des Autorisierungsendpunkts, die in einem OAuth2-Fluss verwendet wird. |
OAuth2ConnAuthTokenEndpoint |
null |
Die Tokenendpunkt-URL für den OAuth2-Fluss. |
OAuth2RedirectUrlPort |
8020 |
Der OAuth2-Umleitungs-URL-Port für browserbasierte Authentifizierungsflüsse. |
OIDCDiscoveryEndpoint |
null |
Die OpenID Connect-Ermittlungs-URL zum Abrufen der OIDC-Konfiguration. |
ProxyAuth |
0 |
Bei Festlegung auf 1 verwendet der Treiber den Benutzernamen und das Kennwort für die Proxyauthentifizierung, dargestellt durch ProxyUID und ProxyPwd. |
ProxyHost |
null |
Eine Zeichenfolge, die den Namen des Proxyhosts darstellt, der verwendet werden soll, wenn UseProxy auch auf 1 festgelegt ist. |
ProxyPort |
null |
Ein Integer, der die Zahl des Proxyports darstellt, der verwendet werden soll, wenn UseProxy auch auf 1 festgelegt ist. |
ProxyPwd |
null |
Eine Zeichenfolge, die das Kennwort darstellt, der für die Proxyauthentifizierung verwendet werden soll, wenn ProxyAuth und UseProxy auch auf 1 festgelegt sind. |
ProxyUID |
null |
Eine Zeichenfolge, die den Benutzernamen darstellt, der für die Proxyauthentifizierung verwendet werden soll, wenn ProxyAuth und UseProxy auch auf 1 festgelegt sind. |
TokenCachePassPhrase |
null |
Die Passphrase, die für die OAuth U2M-Tokencacheverschlüsselung verwendet werden soll. |
UseCFProxy |
0 |
Bei Festlegung auf 1, verwendet der Treiber die Cloud-Abrufproxyeinstellungen, falls diese bereitgestellt werden, andernfalls den regulären Proxy. |
UseJWTAssertion |
false |
Aktiviert die JWT-Authentifizierung für private Schlüssel für M2M-Anwendungsfälle, in denen die Authentifizierung des geheimen Clientschlüssels eingeschränkt ist. |
UseProxy |
0 |
Bei Festlegung auf 1 verwendet der Treiber die bereitgestellten Proxyeinstellungen (z. B. ProxyAuth, ProxyHost, ProxyPort, ProxyPwd und ProxyUID). |
UseSystemProxy |
0 |
Bei Festlegung auf 1 verwendet der Treiber die Proxyeinstellungen, die auf Systemebene festgelegt wurden. Wenn in der Verbindungs-URL zusätzliche Proxy-Eigenschaften festgelegt sind, haben diese zusätzlichen Proxy-Eigenschaften Vorrang vor denen, die auf der Systemebene festgelegt wurden. |
Konfigurationseigenschaften des SSL-Vertrauensspeichers
Die folgenden Konfigurationseigenschaften des SSL-Vertrauensspeichers werden vom Databricks JDBC-Treiber unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.
| Eigentum | Standardwert | BESCHREIBUNG |
|---|---|---|
AcceptUndeterminedRevocation |
0 |
Wenn auf 1 gesetzt, akzeptiert Zertifikate mit unbestimmtem Sperrstatus, wenn die Zertifikatsperrüberprüfung aktiviert ist. |
AllowSelfSignedCerts |
0 |
Bei Festlegung auf 1, ermöglicht der Treiber Verbindungen mit Servern mit selbstsignierten SSL-Zertifikaten. |
CheckCertificateRevocation |
0 |
Bei Festlegung auf 1, überprüft der Treiber, ob das SSL-Zertifikat widerrufen wurde. |
SSL |
1 |
Gibt an, ob der Connector über einen SSL-fähigen Socket mit dem Spark-Server kommuniziert. |
SSLKeyStore |
null |
Der Pfad zur SSL-Schlüsselspeicherdatei für die Clientzertifikatauthentifizierung. Standardmäßig wird die servergeschützte TLS-Authentifizierung ausgeführt, sodass kein Clientzertifikat erforderlich ist. |
SSLKeyStorePwd |
null |
Das Kennwort für die SSL-Schlüsselspeicherdatei. |
SSLKeyStoreType |
JKS |
Der Typ des SSL-Schlüsselspeichers. Gültige Werte sind JKS, PKCS12, JCEKS, DKS und PKCS11. |
SSLTrustStore |
null |
Der Pfad zur Vertrauensspeicherdatei für die SSL-Zertifikatüberprüfung. |
SSLTrustStorePassword |
null |
Das Kennwort für die Vertrauensspeicherdatei, wenn sie kennwortgeschützt ist. |
SSLTrustStoreType |
JKS |
Der Typ des Vertrauensspeichers, beispielsweise JKS oder PKCS12. Wenn nicht angegeben, wird der Treiber standardmäßig im JKS-Vertrauensspeicher gespeichert. Gültige Typen sind JKS, PKCS12und BCFKS. |
UseSystemTrustStore |
0 |
Bei Festlegung auf 1, verwendet der Treiber den Standardvertrauensspeicher des Systems für die SSL-Zertifikatüberprüfung. |
Vertrauensspeichertypen
Der JDBC-Treiber unterstützt die folgenden SSL-Modi und Vertrauensspeichertypen.
Selbstsignierter Zertifikatmodus
Um den selbstsignierten Zertifikatmodus zu verwenden, legen Sie die Verbindungseigenschaft AllowSelfSignedCerts=1fest. Dieser Modus verwendet eine vertrauende Socket-Factory, die alle Zertifikate akzeptiert.
Benutzerdefinierter Trust Store
Um einen benutzerdefinierten Vertrauensspeicher zu verwenden, geben Sie eine benutzerdefinierte Vertrauensspeicherdatei in der SSLTrustStore Verbindungseigenschaft an. Dieser Vertrauensspeicher wird direkt aus dem angegebenen Pfad geladen und verwendet die Zertifikate für die SSL-Zertifikatüberprüfung. Er kann in JKS, PKCS12 oder anderen unterstützten Formaten verwendet werden.
Sie müssen die folgenden zusätzlichen Verbindungseigenschaften angeben:
-
SSLTrustStore: Pfad zur Vertrauensspeicherdatei -
SSLTrustStorePassword: Kennwort für den Vertrauensspeicher (falls erforderlich) -
SSLTrustStoreType: Typ des Vertrauensspeichers (optional, Standardeinstellung ist JKS, falls nichts angegeben wird)
Vertrauensspeicher der Java-Systemeigenschaft
Um den Vertrauensspeicher des Systems zu verwenden, setzen Sie UseSystemTrustStore=1 und stellen Sie sicher, dass Sie keinen benutzerdefinierten Vertrauensspeicher festlegen. Geben Sie stattdessen einen Vertrauensspeicher mithilfe der Java-Systemeigenschaft javax.net.ssl.trustStorean. Diese Eigenschaft wird mithilfe des -D Flags auf JVM-Ebene festgelegt, z. B.:
java -Djavax.net.ssl.trustStore=/path/to/truststore.jks -Djavax.net.ssl.trustStorePassword=changeit ...
Der JDBC-Treiber sucht zuerst nach der Java-Systemeigenschaft javax.net.ssl.trustStore. Wenn sie festgelegt ist, wird diese Vertrauensspeicherdatei anstelle der Standardeinstellung des JDK verwendet. Wenn keine Systemeigenschaft festgelegt ist, wird der Standardmäßige Vertrauensspeicher (cacerts) des JDK verwendet, der mit $JAVA_HOME/lib/security/cacerts oder einem ähnlichen Pfad versehen ist.
JDK-Standardvertrauensspeicher (cacerts)
Der JDK verfügt über einen integrierten Vertrauensspeicher namens cacerts , der Zertifikate von bekannten Zertifizierungsstellen enthält, die die Überprüfung von Zertifikaten ermöglicht, die von diesen Zertifizierungsstellen ausgestellt wurden. Dieser Vertrauensspeicher befindet sich in der Regel unter $JAVA_HOME/lib/security/cacerts mit einem Standardpasswort "changeit" oder "changeme".
Um den JDK-Standardvertrauensspeicher zu verwenden, stellen Sie sicher, dass UseSystemTrustStore=1 konfiguriert ist und dass Sie keinen benutzerdefinierten Vertrauensspeicher oder einen Vertrauensspeicher in den Java-Systemeigenschaften angeben. Wenn ein Vertrauensspeicher auch mithilfe der Java-Systemeigenschaft javax.net.ssl.trustStoreangegeben wird, wird er ignoriert, wodurch sichergestellt wird, dass der Treiber nur Zertifikate aus dem standardmäßigen JDK-Vertrauensspeicher verwendet.
Reihenfolge der Vertrauensspeicher
Der Treiber verwendet die folgende Rangfolge, um zu bestimmen, welcher Vertrauensspeicher verwendet werden soll:
- Der in der Verbindungseigenschaft
SSLTrustStoreangegebene benutzerdefinierte Vertrauensspeicher - Der in der Java-Systemeigenschaft
javax.net.ssl.trustStoreangegebene Vertrauensspeicher (wennUseSystemTrustStore=1) - Der Standardvertrauensspeicher des JDK (cacerts)
Sicherheitsempfehlungen
Um Ihre Verbindung sicher zu halten, empfiehlt Databricks Folgendes:
Für Produktionsumgebungen:
- Verwenden Sie keinen selbstsignierten Zertifikatmodus (
AllowSelfSignedCerts=1). - Verwenden Sie offiziell von CA unterzeichnete Zertifikate.
- Verwenden Sie
UseSystemTrustStore=1, es sei denn, Sie benötigen einen benutzerdefinierten Trust Store.
- Verwenden Sie keinen selbstsignierten Zertifikatmodus (
Für benutzerdefinierte Vertrauensspeicher:
- Wird beim Herstellen einer Verbindung mit Servern mit Zertifikaten verwendet, die sich nicht im Standardvertrauensspeicher befinden.
- Stellen Sie sicher, dass der Vertrauensspeicher die vollständige Zertifikatskette enthält.
- Schützen Sie Vertrauensspeicherdateien durch entsprechende Berechtigungen.
Wiederholungsstrategie-Eigenschaften
Die folgenden Eigenschaften der Wiederholungsstrategie werden vom Databricks JDBC Driver (OSS) unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.
| Eigentum | Standardwert | BESCHREIBUNG |
|---|---|---|
RateLimitRetry |
1 |
Wenn 1 festgelegt ist, wird der Wiederholungsversuch bei Fehlern aufgrund von Ratenbegrenzung aktiviert. |
RateLimitRetryTimeout |
120 |
Neuverbindungs-Timeout bei Geschwindigkeitsbegrenzung in Sekunden. |
TemporarilyUnavailableRetry |
1 |
Wenn auf 1 gesetzt, wird das erneute Versuchen bei vorübergehend nicht verfügbaren Fehlern aktiviert. |
TemporarilyUnavailableRetryTimeout |
900 |
Das Timeout für vorübergehend nicht verfügbare Fehler in Sekunden wiederholen. |
VolumeOperationRetryableHttpCode |
408,429,500,502,503,504 |
Die durch Kommas getrennte Liste der wiederholbaren HTTP-Codes für die Einbindung des Unity-Katalogvolumens. |
VolumeOperationRetryTimeout |
15 |
Der Timeout für die Wiederholung von HTTP-Anforderungen zur Volumeerfassung im Unity-Katalog, in Minuten. |
Leistungs- und Verbindungsverwaltungseigenschaften
Die folgenden Leistungs- und Verbindungsverwaltungseigenschaften werden vom Databricks ASPX-Treiber (OSS) unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.
| Eigentum | Standardwert | BESCHREIBUNG |
|---|---|---|
CloudFetchThreadPoolSize |
16 |
Die Threadpoolgröße für Cloud-Abrufvorgänge. |
DefaultStringColumnLength |
255 |
Die maximale Anzahl von Zeichen, die in STRING-Spalten für die Metadatenberichterstattung enthalten sein können. |
HttpConnectionPoolSize |
100 |
Die maximale GRÖßE des HTTP-Verbindungspools. |
IdleHttpConnectionExpiry |
60 |
Die Ablaufzeit der Leerlauf-HTTP-Verbindung in Sekunden. |
RowsFetchedPerBlock |
2000000 |
Die maximale Anzahl von Zeilen, die eine Abfrage gleichzeitig zurückgibt. Dies gilt nur für Inlineergebnisse. |
SocketTimeout |
900 |
Der Socket-Timeout für Netzwerkoperationen, angegeben in Sekunden. |
SQL-Konfigurationseigenschaften
Die folgenden SQL-Konfigurationseigenschaften werden vom Databricks JDBC-Treiber unterstützt. Diese werden auch unter Konfigurationsparameter beschrieben. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.
| Eigentum | Standardwert | BESCHREIBUNG |
|---|---|---|
ansi_mode |
TRUE |
Gibt an, ob das strikte ANSI-SQL-Verhalten für bestimmte Funktionen und Umwandlungsregeln aktiviert werden soll. |
enable_photon |
TRUE |
Ob die vektorisierte Photon-Abfrage-Engine aktiviert werden soll. |
legacy_time_parser_policy |
EXCEPTION |
Die Methoden zum Parsen und Formatieren von Daten und Zeitstempeln. Gültige Werte sind EXCEPTION, LEGACYund CORRECTED. |
max_file_partition_bytes |
128m |
Die maximale Anzahl von Bytes, die beim Lesen von auf Dateien basierenden Quellen in eine einzelne Partition gepackt werden sollen. Als Einstellung kann ein beliebiger Integer verwendet werden und optional eine Maßeinheit wie b (Bytes), k oder kb (1024 Bytes). |
query_tags |
"" (leere Zeichenfolge) |
Eine durch Kommas getrennte Liste von Schlüssel-Wert-Tags, die an SQL-Abfragen zur Nachverfolgung und Analyse angefügt werden sollen, system.query.history. |
read_only_external_metastore |
false |
Steuert, ob ein externer Metastore schreibgeschützt behandelt wird. |
statement_timeout |
172800 |
Legen Sie ein Timeout für SQL-Anweisungen zwischen 0 und 172800 Sekunden fest. |
timezone |
UTC |
Legen Sie die lokale Zeitzone fest. Regions-IDs in der Form area/city, z. B. Amerika/Los_Angeles oder Zonenoffsets im Format (+|-)HH, (+|-)HH:mm oder (+|-)HH:mm:ss, z. B. -08, +01:00 oder -13:33:33. Außerdem wird UTC als Alias für +00:00 unterstützt |
use_cached_result |
true |
Ob Databricks SQL die Ergebnisse zwischenspeichert und nach Möglichkeit wiederverwendet. |
Protokollierungseigenschaften
Die folgenden Protokollierungseigenschaften werden vom Databricks JDBC-Treiber unterstützt. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.
| Eigentum | Standardwert | BESCHREIBUNG |
|---|---|---|
LogFileCount |
10 |
Die maximale Anzahl zulässiger Protokolldateien |
LogFileSize |
10 |
Die maximal zulässige Protokolldateigröße, die in MB angegeben ist |
LogLevel |
OFF |
Die Protokollierungsebene. Hierbei handelt es sich um einen Wert von 0 bis 6:
Verwenden Sie diese Eigenschaft, um die Protokollierung im Connector zu aktivieren oder zu deaktivieren und um die Menge der in den Protokolldateien enthaltenen Details festzulegen. |
LogPath |
Um den Standardpfad für Protokolle zu ermitteln, verwendet der Treiber den Für diese Systemeigenschaften festgelegten Wert in dieser Prioritätsreihenfolge:
|
Der vollständige Pfad zu dem Ordner, in dem der Connector Protokolldateien speichert, wenn die Protokollierung aktiviert ist, als Zeichenfolge. Um sicherzustellen, dass die Verbindungs-URL mit allen JDBC-Anwendungen kompatibel ist, maskieren Sie den Backslash (\) in Ihrem Dateipfad, indem Sie einen weiteren Backslash eingeben.Wenn der LogPath Wert ungültig ist, sendet der Connector die protokollierten Informationen an den Standardausgabedatenstrom (System.out). |
Aktivieren und Konfigurieren der Protokollierung
Der JDBC-Treiber unterstützt die Frameworks Simple Logging Facade for Java (SLF4J) und java.util.logging (JUL). Der Treiber verwendet standardmäßig das JUL-Protokollierungsframework.
So aktivieren und konfigurieren Sie die Protokollierung für den JDBC-Treiber:
Aktivieren Sie das Protokollierungsframework, das Sie verwenden möchten:
- Legen Sie für die SLF4J-Protokollierung die Systemeigenschaft
-Dcom.databricks.jdbc.loggerImpl=SLF4JLOGGERfest, und stellen Sie die SLF4J-Bindungsimplementierung (kompatibel mit SLF4J, Version 2.0.13 und höher) und entsprechende Konfigurationsdatei im Klassenpfad bereit. - Legen Sie für die JUL-Protokollierung die Systemeigenschaft
-Dcom.databricks.jdbc.loggerImpl=JDKLOGGERfest. Dies ist die Standardeinstellung.
- Legen Sie für die SLF4J-Protokollierung die Systemeigenschaft
Legen Sie die
LogLevelEigenschaft für die Verbindungszeichenfolge auf die gewünschte Informationsebene fest, die in Protokolldateien eingeschlossen werden soll.Legen Sie die
LogPathEigenschaft für die Verbindungszeichenfolge auf den vollständigen Pfad zum Ordner fest, in dem Protokolldateien gespeichert werden sollen.Die folgende Verbindungs-URL ermöglicht beispielsweise die Protokollierungsebene 6 und speichert die Protokolldateien im Ordner "C:temp":
jdbc: databricks://localhost:11000;LogLevel=6;LogPath=C:\\tempStarten Sie Ihre JDBC-Anwendung neu und stellen Sie die Verbindung zum Server wieder her, um die Einstellungen anzuwenden.
Andere Featureeigenschaften
Die folgenden Eigenschaften ermöglichen Features im Databricks JDBC-Treiber. Bei Eigenschaften wird die Groß-/Kleinschreibung nicht berücksichtigt.
| Eigentum | Standardwert | BESCHREIBUNG |
|---|---|---|
EnableArrow |
1 |
Bei Festlegung auf 0" wird die Pfeil serialisierung für Ergebnisse deaktiviert, wodurch auch das Cloud Fetch-Verhalten deaktiviert wird, da das Pfeilformat für Cloud Fetch erforderlich ist. |
EnableComplexDatatypeSupport |
0 |
Bei Festlegung auf 1, unterstützung für komplexe Datentypen (ARRAYs, STRUCTs, MAPs) als systemeigene Java-Objekte anstelle von Zeichenfolgen ist aktiviert. |
EnableDirectResults |
1 |
Wenn auf 1 gesetzt, aktiviert dies direkte Ergebnisse für eine verbesserte Abfrageleistung. |
EnableGeoSpatialSupport |
0 |
Bei Festlegung auf 1, aktiviert die Unterstützung für geospatiale Datentypen (GEOMETRY und GEOGRAPHY) als strukturierte Java-Objekte. Erfordert EnableComplexDatatypeSupport=1 und EnableArrow=1 (Pfeil ist standardmäßig aktiviert). Wenn diese Option deaktiviert ist, werden Geospatialspalten im EWKT-Format als STRING zurückgegeben. Siehe ST-Geospatialfunktionen. |
EnableSqlScripting |
1 oder true |
Ermöglicht die UNTERSTÜTZUNG von SQL-Skripts für zusammengesetzte Anweisungsblöcke (BEGIN... END) und gespeicherte Prozeduraufrufe. Verfügbar in Treiberversion 1.0.10 und höher mit Databricks Runtime 16.3 und höher. Gespeicherte Prozeduren erfordern Databricks Runtime 17.0 und höher und Treiberversion 3.0.1 und höher. Verwenden Sie Statement oder PreparedStatement, um Prozeduren aufzurufen.
CallableStatement wird nicht unterstützt. Syntax und Beispiele finden Sie unter SQL-Skripting. |
EnableMetricViewMetadata |
0 |
Wenn dieser Wert festgelegt ist 1, werden erweiterte Metadatenvorgänge für Metrikansichten aktiviert. Weitere Informationen finden Sie unter "Arbeiten mit Metrikansichtsmetadaten" mithilfe des Databricks JDBC-Treibers. |
EnableTelemetry |
0 |
Wenn auf 1 gesetzt, ist Telemetrie aktiviert. Siehe Telemetrie. |
EnableVolumeOperations |
1oder true |
Die Clientinformationseigenschaft zum Aktivieren von Volumevorgängen in einem Datenstrom. Siehe "Verwalten von Dateien in Volumes" mit dem Databricks JDBC-Treiber. Standardmäßig ermöglicht diese Eigenschaft auch die REMOVE Operation auf einem Datenträger. Wichtig: Sie müssen dies als Clientinformationseigenschaft festlegen. Wenn Sie sie nur in der Verbindungs-URL angeben, werden Volumevorgänge für einen Datenstrom nicht aktiviert. |
MaxBatchSize |
500 |
Die maximale Batchgröße für Batchvorgänge und Datenverarbeitung. |
QueryResultCompressionType |
1 | Gültige Werte sind 0 (ohne Komprimierung) und 1 (für die LZ4-Komprimierung). Der Treiber setzt automatisch den Wert auf 0 (keine Komprimierung) für Inline-Ergebnisse, unabhängig von der konfigurierten Einstellung. |
UserAgentEntry |
browser |
Der User-Agent-Eintrag, der in die HTTP-Anforderung aufgenommen werden soll. Der Wert weist folgendes Format auf: [ProductName]/[ProductVersion] [Comment] |
UseThriftClient |
1 |
Gibt an, ob der JDBC-Treiber den Thrift-Client oder die Anweisungsausführungs-APIs verwendet. |
VolumeOperationAllowedLocalPaths |
`` | Die durch Trennzeichen getrennte Liste der zulässigen lokalen Pfade zum Herunterladen und Hochladen von Unity Catalog-Volumeneinnahmedateien. Die Pfade enthalten auch Unterverzeichnisse. Wenn nicht angegeben, fällt dies auf den Wert von StagingAllowedLocalPaths, dann auf eine leere Zeichenfolge, die keine Einschränkungen angibt. Siehe "Verwalten von Dateien mithilfe von Volumes".Wichtig: Wenn sich das Setup in einer mehrinstanzenfähigen Umgebung (z. B. BI-Tools oder Entwicklerdienste) befindet und die Benutzer die vollständige URL DER FUNKTION STEUERN, sollte der Dienst diese Eigenschaft auf einen Sandkastenspeicherort oder einen nicht vorhandenen Pfad festlegen. Dadurch wird verhindert, dass Benutzer willkürliche Dateien schreiben und die interne Bereitstellung des Diensts beeinträchtigen. |
Telemetriesammlung
Telemetrie ermöglicht es Databricks, das Debugging zu optimieren und eine zeitnahe Problembehandlung durch das Sammeln folgender Informationen bereitzustellen:
- Details zur Clientumgebung (Treiberversion, Laufzeit, Betriebssystemdetails)
- Konfigurationen für JDBC-Verbindungen (schließt alle PII-Daten aus)
- Messung der Vorgangslatenz
- Ausführungsergebnisformat (Inline-JSON, Pfeil usw.)
- Vorgangstypen (Ausführungsabfrage, Metadatenabfrage, Volumevorgänge)
- Fehlerklassifizierungsdaten
- Wiederholungsanzahl
Hinweis
Databricks behält strenge Datenschutzstandards bei, die sicherstellen, dass keine Sammlung von Abfrageinhalten, Ergebnissen oder personenbezogenen Informationen (PII) erfasst wird.