Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für: ![]()
SaaS-Connectors
Datenbank-Connectors
Standardmäßig werden verwaltete Connectors in Lakeflow Connect alle aktuellen und zukünftigen Spalten in den angegebenen Tabellen aufgenommen. Verwenden Sie optional eine der folgenden Tabellenkonfigurationseigenschaften in Ihrer Pipelinedefinition, um bestimmte Spalten für die Aufnahme auszuwählen oder zu deaktivieren:
| Eigentum | Description |
|---|---|
include_columns |
Geben Sie optional eine Liste der Spalten an, die für die Aufnahme eingeschlossen werden sollen. Wenn Sie diese Option verwenden, um Spalten explizit einzuschließen, schließt die Pipeline automatisch Spalten aus, die der Quelle in Zukunft hinzugefügt werden. Um die zukünftigen Spalten aufzunehmen, müssen Sie sie der Liste hinzufügen. |
exclude_columns |
Geben Sie optional eine Liste von Spalten an, die von der Aufnahme ausgeschlossen werden sollen. Wenn Sie diese Option verwenden, um Spalten explizit auszuschließen, enthält die Pipeline automatisch Spalten, die der Quelle in Zukunft hinzugefügt werden. |
Die Beispielpipelinedefinitionen auf dieser Seite zeigen, wie sie je nach Pipelineerstellungsschnittstelle drei bestimmte Spalten für die Aufnahme auswählen. Wenn Sie stattdessen bestimmte Spalten deaktivieren möchten, geben Sie in der Tabellenkonfiguration an exclude_columns .
Beispiel: Google Analytics
Databricks-Ressourcenpakete
resources:
pipelines:
pipeline_ga4:
name: <pipeline>
catalog: <target-catalog>
schema: <target-schema>
ingestion_definition:
connection_name: <connection>
objects:
- table:
source_url: <project-id>
source_schema: <property-name>
destination_catalog: <destination-catalog>
destination_schema: <destination-schema>
table_configuration:
include_columns:
- <column_a>
- <column_b>
- <column_c>
Databricks-Notizbuch
pipeline_spec = """
{
"name": "<pipeline>",
"ingestion_definition": {
"connection_name": "<connection>",
"objects": [
{
"table": {
"source_catalog": "<project-id>",
"source_schema": "<property-name>",
"source_table": "<source-table>",
"destination_catalog": "<target-catalog>",
"destination_schema": "<target-schema>",
"table_configuration": {
"include_columns": ["<column_a>", "<column_b>", "<column_c>"]
}
}
}
]
}
}
"""
Databricks-Befehlszeilenschnittstelle
{
"resources": {
"pipelines": {
"pipeline_ga4": {
"name": "<pipeline>",
"catalog": "<target-catalog>",
"schema": "<target-schema>",
"ingestion_definition": {
"connection_name": "<connection>",
"objects": [
{
"table": {
"source_url": "<project-id>",
"source_schema": "<property-name>",
"destination_catalog": "<destination-catalog>",
"destination_schema": "<destination-schema>",
"table_configuration": {
"include_columns": ["<column_a>", "<column_b>", "<column_c>"]
}
}
}
]
}
}
}
}
}
Beispiel: Salesforce
Databricks-Ressourcenpakete
resources:
pipelines:
pipeline_sfdc:
name: <pipeline>
catalog: <target-catalog>
schema: <target-schema>
ingestion_definition:
connection_name: <connection>
objects:
- table:
source_schema: <source-schema>
source_table: <source-table>
destination_catalog: <destination-catalog>
destination_schema: <destination-schema>
table_configuration:
include_columns:
- <column_a>
- <column_b>
- <column_c>
Databricks-Notizbuch
pipeline_spec = """
{
"name": "<pipeline>",
"ingestion_definition": {
"connection_name": "<connection>",
"objects": [
{
"table": {
"source_catalog": "<source-catalog>",
"source_schema": "<source-schema>",
"source_table": "<source-table>",
"destination_catalog": "<target-catalog>",
"destination_schema": "<target-schema>",
"table_configuration": {
"include_columns": ["<column_a>", "<column_b>", "<column_c>"]
}
}
}
]
}
}
"""
Databricks-Befehlszeilenschnittstelle
{
"resources": {
"pipelines": {
"pipeline_sfdc": {
"name": "<pipeline>",
"catalog": "<target-catalog>",
"schema": "<target-schema>",
"ingestion_definition": {
"connection_name": "<connection>",
"objects": [
{
"table": {
"source_schema": "<source-schema>",
"source_table": "<source-table>",
"destination_catalog": "<destination-catalog>",
"destination_schema": "<destination-schema>",
"table_configuration": {
"include_columns": ["<column_a>", "<column_b>", "<column_c>"]
}
}
}
]
}
}
}
}
}
Beispiel: Arbeitstag
Databricks-Ressourcenpakete
resources:
pipelines:
pipeline_workday:
name: <pipeline>
catalog: <target-catalog>
schema: <target-schema>
ingestion_definition:
connection_name: <connection>
objects:
- report:
source_url: <report-url>
destination_catalog: <destination-catalog>
destination_schema: <destination-schema>
table_configuration:
include_columns:
- <column_a>
- <column_b>
- <column_c>
Databricks-Notizbuch
pipeline_spec = """
{
"name": "<pipeline>",
"ingestion_definition": {
"connection_name": "<connection>",
"objects": [
{
"report": {
"source_url": "<report-url>",
"destination_catalog": "<target-catalog>",
"destination_schema": "<target-schema>",
"table_configuration": {
"include_columns": ["<column_a>", "<column_b>", "<column_c>"]
}
}
}
]
}
}
"""
Databricks-Befehlszeilenschnittstelle
{
"resources": {
"pipelines": {
"pipeline_workday": {
"name": "<pipeline>",
"catalog": "<target-catalog>",
"schema": "<target-schema>",
"ingestion_definition": {
"connection_name": "<connection>",
"objects": [
{
"report": {
"source_url": "<report-url>",
"destination_catalog": "<destination-catalog>",
"destination_schema": "<destination-schema>",
"table_configuration": {
"include_columns": ["<column_a>", "<column_b>", "<column_c>"]
}
}
}
]
}
}
}
}
}