Freigeben über


Kopieren und Transformieren von Daten in Microsoft Fabric Warehouse mithilfe von Azure Data Factory oder Azure Synapse Analytics

GILT FÜR: Azure Data Factory Azure Synapse Analytics

Tipp

Testen Sie Data Factory in Microsoft Fabric, einer All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alles von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung ab. Erfahren Sie, wie Sie eine neue Testversion kostenlos starten können!

In diesem Artikel wird beschrieben, wie Sie die Copy-Aktivität verwenden, um Daten aus und in Microsoft Fabric Warehouse zu kopieren. Weitere Informationen finden Sie im Einführungsartikel für Azure Data Factory oder Azure Synapse Analytics.

Unterstützte Funktionen

Dieser Microsoft Fabric Warehouse-Connector wird für die folgenden Funktionen unterstützt:

Unterstützte Funktionen IR Verwalteter privater Endpunkt
Copy-Aktivität (Quelle/Senke) (1) (2)
Zuordnungsdatenfluss (Quelle/Senke)
Nachschlageaktivität (1) (2)
GetMetadata-Aktivität (1) (2)
Skriptaktivität (1) (2)
Aktivität der gespeicherten Prozedur (1) (2)

(1) Azure-Integrationslaufzeit (2) Selbst gehostete Integrationslaufzeit

Erste Schritte

Zum Ausführen der Kopieraktivität mit einer Pipeline können Sie eines der folgenden Tools oder SDKs verwenden:

Eigenschaften des verknüpften Diensts

Der Microsoft Fabric Warehouse-Connector unterstützt die folgenden Authentifizierungstypen. Weitere Informationen finden Sie in den entsprechenden Abschnitten:

Dienstprinzipalauthentifizierung

Zum Verwenden der Dienstprinzipalauthentifizierung führen Sie die folgenden Schritte aus.

  1. Registrieren Sie eine Anwendung bei der Microsoft Identity Platform , und fügen Sie einen geheimen Clientschlüssel hinzu. Notieren Sie sich anschließend die folgenden Werte, die Sie zum Definieren des verknüpften Diensts verwenden können:

    • Anwendungs-ID (Client), d. h. die Dienstprinzipal-ID im verknüpften Dienst.
    • Wert des geheimen Clientschlüssels, d. h. der Dienstprinzipalschlüssel im verknüpften Dienst.
    • Mandanten-ID
  2. Weisen Sie dem Dienstprinzipal mindestens die Rolle Mitwirkender im Microsoft Fabric-Arbeitsbereich zu. Führen Sie die Schritte unter Erteilen von Berechtigungen im Microsoft Fabric-Arbeitsbereich aus.

Diese Eigenschaften werden im verknüpften Dienst unterstützt:

Eigenschaft Beschreibung Erforderlich
type Die Typeigenschaft muss auf Warehouse festgelegt werden. Ja
Endpunkt Der Endpunkt des Microsoft Fabric Warehouse-Servers. Ja
Arbeitsbereichs-ID Die ID des Microsoft Fabric-Arbeitsbereichs Ja
artifactId Die Microsoft Fabric Warehouse-Objekt-ID. Ja
Mieter Geben Sie die Mandanteninformationen (Domänenname oder Mandanten-ID) für Ihre Anwendung an. Diese können Sie abrufen, indem Sie im Azure-Portal mit der Maus auf den Bereich oben rechts zeigen. Ja
servicePrincipalId Geben Sie die Client-ID der Anwendung an. Ja
servicePrincipalCredentialType Die Art von Anmeldeinformationen, die für die Authentifizierung beim Dienstprinzipal verwendet werden. Zulässige Werte sind ServicePrincipalKey und ServicePrincipalCert. Ja
servicePrincipalCredential Die Anmeldeinformationen für den Dienstprinzipal.
Wenn Sie ServicePrincipalKey als Anmeldeinformationstyp verwenden, geben Sie den geheimen Clientschlüsselwert der Anwendung an. Markieren Sie dieses Feld als SecureString , um es sicher zu speichern, oder verweisen Sie auf einen geheimen Schlüssel, der in Azure Key Vault gespeichert ist.
Wenn Sie ServicePrincipalCert als Anmeldeinformationen verwenden, verweisen Sie in Azure Key Vault auf ein Zertifikat, und stellen Sie sicher, dass der Zertifikatinhaltstyp PKCS #12 ist.
Ja
connectVia Die Integrationslaufzeit , die zum Herstellen einer Verbindung mit dem Datenspeicher verwendet werden soll. Sie können die Azure Integration Runtime oder eine selbstgehostete Integration Runtime verwenden (sofern sich Ihr Datenspeicher in einem privaten Netzwerk befindet). Wenn kein Wert angegeben ist, wird die standardmäßige Azure Integration Runtime verwendet. Nein

Beispiel: Verwenden der Dienstprinzipalschlüsselauthentifizierung

Sie können den Dienstprinzipalschlüssel auch in Azure Key Vault speichern.

{
    "name": "MicrosoftFabricWarehouseLinkedService",
    "properties": {
        "type": "Warehouse",
        "typeProperties": {
            "endpoint": "<Microsoft Fabric Warehouse server endpoint>",
            "workspaceId": "<Microsoft Fabric workspace ID>",
            "artifactId": "<Microsoft Fabric Warehouse object ID>",
            "tenant": "<tenant info, e.g. microsoft.onmicrosoft.com>",
            "servicePrincipalId": "<service principal id>",
            "servicePrincipalCredentialType": "ServicePrincipalKey",
            "servicePrincipalCredential": {
                "type": "SecureString",
                "value": "<service principal key>"
            }   
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Authentifizierung mit systemseitig zugewiesener verwalteter Identität

Eine Data Factory- oder Synapse-Pipeline kann einer systemseitig zugewiesenen verwalteten Identität für Azure-Ressourcen zugeordnet werden, die diese Ressource für die Authentifizierung bei anderen Azure-Diensten darstellt. Sie können diese systemseitig zugewiesene verwaltete Identität direkt für die Microsoft Fabric Warehouse-Authentifizierung verwenden. Dies ähnelt der Verwendung eines eigenen Dienstprinzipals. Sie erlaubt dieser bestimmten Ressource den Zugriff auf und das Kopieren von Daten aus bzw. in Microsoft Fabric Warehouse. Weitere Informationen zu verwalteten Identitäten für Azure-Ressourcen finden Sie unter Verwaltete Identitäten für Azure-Ressourcen.

Wenn Sie verwaltete Identitäten für die Azure-Ressourcenauthentifizierung verwenden möchten, gehen Sie folgendermaßen vor:

  1. Rufen Sie die Informationen zur systemseitig zugewiesenen verwalteten Identität ab, indem Sie den Wert der Objekt-ID der systemseitig zugewiesenen verwalteten Identität kopieren, die zusammen mit Ihrer Factory- oder Ihrem Synapse-Arbeitsbereich generiert wurde.

  2. Gewähren Sie der systemseitig zugewiesenen verwalteten Identität mindestens die Rolle Mitwirkender im Microsoft Fabric-Arbeitsbereich. Führen Sie die Schritte unter Erteilen von Berechtigungen im Microsoft Fabric-Arbeitsbereich aus.

Diese Eigenschaften werden für einen verknüpften Microsoft Fabric Warehouse-Dienst unterstützt:

Eigenschaft Beschreibung Erforderlich
type Die type-Eigenschaft muss auf Warehouse festgelegt werden. Ja
Endpunkt Der Endpunkt des Microsoft Fabric Warehouse-Servers. Ja
Arbeitsbereichs-ID Die ID des Microsoft Fabric-Arbeitsbereichs Ja
artifactId Die Microsoft Fabric Warehouse-Objekt-ID. Ja
connectVia Die Integrationslaufzeit , die zum Herstellen einer Verbindung mit dem Datenspeicher verwendet werden soll. Sie können die Azure Integration Runtime oder eine selbstgehostete Integration Runtime verwenden (sofern sich Ihr Datenspeicher in einem privaten Netzwerk befindet). Wenn kein Wert angegeben ist, wird die standardmäßige Azure Integration Runtime verwendet. Nein

Example:

{
    "name": "MicrosoftFabricWarehouseLinkedService",
    "properties": {
        "type": "Warehouse",
        "typeProperties": {
            "endpoint": "<Microsoft Fabric Warehouse server endpoint>",
            "workspaceId": "<Microsoft Fabric workspace ID>",
            "artifactId": "<Microsoft Fabric Warehouse object ID>",
            "authenticationType": "SystemAssignedManagedIdentity"
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Hinweis

Dieser Authentifizierungstyp wird für die selbstgehostete Integration Runtime nicht unterstützt.

Authentifizierung mit einer benutzerseitig zugewiesenen verwalteten Identität

Eine Data Factory kann mit einer oder mehreren benutzerseitig zugewiesenen verwalteten Identitäten zugewiesen werden. Sie können diese benutzerseitig zugewiesene verwaltete Identität für die Microsoft Fabric Warehouse-Authentifizierung verwenden. So werden der Zugriff auf und das Kopieren von Daten in bzw. aus Microsoft Fabric Warehouse ermöglicht. Weitere Informationen zu verwalteten Identitäten für Azure-Ressourcen finden Sie unter Verwaltete Identitäten für Azure-Ressourcen.

Führen Sie die folgenden Schritte aus, um die Authentifizierung mit einer benutzerseitig zugewiesenen verwalteten Identität zu verwenden:

  1. Erstellen Sie eine oder mehrere benutzerseitig zugewiesene verwaltete Identitäten.

  2. Gewähren Sie der benutzerseitig zugewiesenen verwalteten Identität mindestens die Rolle Mitwirkender im Microsoft Fabric-Arbeitsbereich. Führen Sie die Schritte unter Erteilen von Berechtigungen im Microsoft Fabric-Arbeitsbereich aus.

  3. Weisen Sie Ihrer Data Factory eine oder mehrere benutzerseitig zugewiesene verwaltete Identitäten zu, und erstellen Sie Anmeldeinformationen für jede benutzerseitig zugewiesene verwaltete Identität.

Diese Eigenschaften werden für einen verknüpften Microsoft Fabric Warehouse-Dienst unterstützt:

Eigenschaft Beschreibung Erforderlich
type Die type-Eigenschaft muss auf Warehouse festgelegt werden. Ja
Endpunkt Der Endpunkt des Microsoft Fabric Warehouse-Servers. Ja
Arbeitsbereichs-ID Die ID des Microsoft Fabric-Arbeitsbereichs Ja
artifactId Die Microsoft Fabric Warehouse-Objekt-ID. Ja
Zugangsdaten Geben Sie die benutzerseitig zugewiesene verwaltete Identität als Anmeldeinformationsobjekt an. Ja
connectVia Die Integrationslaufzeit , die zum Herstellen einer Verbindung mit dem Datenspeicher verwendet werden soll. Sie können die Azure Integration Runtime oder eine selbstgehostete Integration Runtime verwenden (sofern sich Ihr Datenspeicher in einem privaten Netzwerk befindet). Wenn diese Eigenschaft nicht angegeben ist, verwendet der Dienst die normale Azure Integration Runtime. Nein

Example:

{
    "name": "MicrosoftFabricWarehouseLinkedService",
    "properties": {
        "type": "Warehouse",
        "typeProperties": {
            "endpoint": "<Microsoft Fabric Warehouse server endpoint>",            
            "workspaceId": "<Microsoft Fabric workspace ID>",
            "artifactId": "<Microsoft Fabric Warehouse object ID>",
            "authenticationType": "UserAssignedManagedIdentity",
            "credential": {
                "referenceName": "credential1",
                "type": "CredentialReference"
            }
        },
        "connectVia": {
            "referenceName": "<name of Integration Runtime>",
            "type": "IntegrationRuntimeReference"
        }
    }
}

Erteilen von Berechtigungen im Microsoft Fabric-Arbeitsbereich

Sie müssen dem Dienstprinzipal/der systemseitig zugewiesenen verwalteten Identität/der benutzerseitig zugewiesenen verwalteten Identität mindestens die Rolle Mitwirkender im Microsoft Fabric-Arbeitsbereich zuweisen. Folgen Sie diesen Schritten:

  1. Wechseln Sie zu Ihrem Microsoft Fabric-Arbeitsbereich, und wählen Sie auf der oberen Leiste " Zugriff verwalten" aus. Wählen Sie dann " Personen oder Gruppen hinzufügen" aus.

    Screenshot der Auswahl des Fabric-Arbeitsbereichs „Zugriff verwalten“.  Screenshot der Auswahl des Fabric-Arbeitsbereichs „Zugriffsbereich verwalten“.

  2. Geben Sie im Bereich Personen hinzufügen den Namen des Dienstprinzipals/der systemseitig zugewiesenen verwalteten Identität/der benutzerseitig zugewiesenen verwalteten Identität ein, und wählen Sie ihn aus der Dropdownliste aus.

  3. Geben Sie die Rolle als Mitwirkender oder höher an (Administrator, Mitglied), und wählen Sie dann "Hinzufügen" aus.

    Screenshot zeigt das Hinzufügen einer Fabric-Arbeitsbereichsrolle.

  4. Der Dienstprinzipal/die systemseitig zugewiesene verwaltete Identität/die benutzerseitig zugewiesene verwaltete Identität wird im Bereich Zugriff verwalten angezeigt.

Erstellen eines verknüpften Microsoft Fabric Warehouse-Diensts mithilfe der Benutzeroberfläche

Führen Sie die folgenden Schritte aus, um einen verknüpften Microsoft Fabric Warehouse-Dienst über die Benutzeroberfläche des Azure-Portals zu erstellen.

  1. Navigieren Sie in Ihrem Azure Data Factory- oder Synapse-Arbeitsbereich zur Registerkarte „Verwalten“, und wählen Sie „Verknüpfte Dienste“ und anschließend „Neu“ aus:

  2. Suchen Sie nach „Warehouse“, und wählen Sie den Connector aus.

    Screenshot: Auswahl des Microsoft Fabric Warehouse-Connectors

  3. Konfigurieren Sie die Dienstdetails, testen Sie die Verbindung, und erstellen Sie den neuen verknüpften Dienst.

    Screenshot der Konfiguration für den verknüpften Microsoft Fabric Warehouse-Dienst.

Dataset-Eigenschaften

Eine vollständige Liste der Abschnitte und Eigenschaften, die zum Definieren von Datasets verfügbar sind, finden Sie im Artikel "Datasets ".

Die folgenden Eigenschaften werden für das Microsoft Fabric Warehouse-Dataset unterstützt:

Eigenschaft Beschreibung Erforderlich
type Die Typeigenschaft des Datasets muss auf WarehouseTable festgelegt werden. Ja
schema Name des Schemas. Quelle: Nein, Senke: Ja
Tisch Name der Tabelle/Ansicht. Quelle: Nein, Senke: Ja

Beispiel für Dataseteigenschaften

{
    "name": "FabricWarehouseTableDataset",
    "properties": {
        "type": "WarehouseTable",
        "linkedServiceName": {
            "referenceName": "<Microsoft Fabric Warehouse linked service name>",
            "type": "LinkedServiceReference"
        },
        "schema": [ < physical schema, optional, retrievable during authoring >
        ],
        "typeProperties": {
            "schema": "<schema_name>",
            "table": "<table_name>"
        }
    }
}

Eigenschaften der Kopieraktivität

Eine vollständige Liste der Abschnitte und Eigenschaften, die zum Definieren von Aktivitäten verfügbar sind, finden Sie unter Kopieren von Aktivitätskonfigurationen und Pipelines und Aktivitäten. Dieser Abschnitt enthält eine Liste der Eigenschaften, die von der Microsoft Fabric Warehouse-Quelle und -Senke unterstützt werden.

Microsoft Fabric Warehouse als Quelle

Tipp

Wenn Sie Daten aus Microsoft Fabric Warehouse mithilfe der Datenpartitionierung effizient laden möchten, erfahren Sie mehr über parallele Kopie aus Microsoft Fabric Warehouse.

Wenn Sie Daten aus Microsoft Fabric Warehouse kopieren möchten, legen Sie die Typeigenschaft in der Quelle "Aktivität kopieren" auf "WarehouseSource" fest. Die folgenden Eigenschaften werden im Abschnitt source der Copy-Aktivität unterstützt:

Eigenschaft Beschreibung Erforderlich
type Die Typeigenschaft der Quelle "Kopieraktivität" muss auf "WarehouseSource" festgelegt werden. Ja
sqlReaderQuery Verwendet die benutzerdefinierte SQL-Abfrage zum Lesen von Daten. Beispiel: select * from MyTable. Nein
SQL-LeserGespeicherteProzedurName Name der gespeicherten Prozedur, die Daten aus der Quelltabelle liest. Die letzte SQL-Anweisung muss eine SELECT-Anweisung in der gespeicherten Prozedur sein. Nein
gespeicherteProzedurParameter Parameter für die gespeicherte Prozedur.
Zulässige Werte sind Namen oder Name-Wert-Paare. Die Namen und die Groß-/Kleinschreibung von Parametern müssen denen der Parameter der gespeicherten Prozedur entsprechen.
Nein
queryTimeout Gibt das Timeout für die Ausführung des Abfragebefehls an. Der Standardwert ist 120 Minuten. Nein
Isolationsebene Gibt das Sperrverhalten für Transaktionen für die SQL-Quelle an. Der zulässige Wert ist Snapshot. Ohne Angabe wird die Standardisolationsstufe der Datenbank verwendet. Weitere Informationen finden Sie unter "system.data.isolationlevel". Nein
Partitionierungsoptionen Gibt die Datenpartitionierungsoptionen an, die zum Laden von Daten aus Microsoft Fabric Warehouse verwendet werden.
Zulässige Werte sind: None (Standard) und DynamicRange.
Wenn eine Partitionsoption aktiviert ist (d. h. der Wert lautet nicht None), wird der Grad der Parallelität für das gleichzeitige Laden von Daten aus Microsoft Fabric Warehouse durch die Einstellung parallelCopies der Copy-Aktivität gesteuert.
Nein
Partitionseinstellungen Geben Sie die Gruppe der Einstellungen für die Datenpartitionierung an.
Verwenden Sie diese Option, wenn die Partitionsoption nicht None lautet.
Nein
Unter partitionSettings:
partitionColumnName Geben Sie den Namen der Quellspalte im Ganzzahlen- oder Datum/Datetime-Typ (int, smallint, bigint, date, datetime2) an, die von der Bereichspartitionierung für die parallele Kopie verwendet wird. Ohne Angabe wird der Index oder der Primärschlüssel der Tabelle automatisch erkannt und als Partitionsspalte verwendet.
Verwenden Sie diese Option, wenn die Partitionsoption DynamicRange lautet. Wenn Sie die Quelldaten mithilfe einer Abfrage abrufen, integrieren Sie ?DfDynamicRangePartitionCondition in die WHERE-Klausel. Ein Beispiel finden Sie im Abschnitt Paralleles Kopieren aus Microsoft Fabric Warehouse.
Nein
Partition-Obergrenze Der maximale Wert der Partitionsspalte für das Teilen des Partitionsbereichs. Dieser Wert wird zur Entscheidung über den Partitionssprung verwendet, nicht zum Filtern der Zeilen in der Tabelle. Alle Zeilen in der Tabelle oder im Abfrageergebnis werden partitioniert und kopiert. Wenn nicht angegeben, wird der Wert für die Kopieraktivität automatisch erkannt.
Verwenden Sie diese Option, wenn die Partitionsoption DynamicRange lautet. Ein Beispiel finden Sie im Abschnitt Paralleles Kopieren aus Microsoft Fabric Warehouse.
Nein
partitionLowerBound Der minimale Wert der Partitionsspalte für das Teilen des Partitionsbereichs. Dieser Wert wird zur Entscheidung über den Partitionssprung verwendet, nicht zum Filtern der Zeilen in der Tabelle. Alle Zeilen in der Tabelle oder im Abfrageergebnis werden partitioniert und kopiert. Wenn nicht angegeben, wird der Wert für die Kopieraktivität automatisch erkannt.
Verwenden Sie diese Option, wenn die Partitionsoption DynamicRange lautet. Ein Beispiel finden Sie im Abschnitt Paralleles Kopieren aus Microsoft Fabric Warehouse.
Nein

Hinweis

Wenn Sie zum Abrufen von Daten eine gespeicherte Prozedur in der Quelle verwenden und die gespeicherte Prozedur beim Übergeben eines anderen Parameterwerts ein anderes Schema zurückgibt, können beim Importieren eines Schemas über die Benutzeroberfläche oder beim Kopieren von Daten in Microsoft Fabric Warehouse mit der automatischen Tabellenerstellung Fehler oder unerwartete Ergebnisse auftreten.

Beispiel: Verwenden von SQL-Abfragen

"activities":[
    {
        "name": "CopyFromMicrosoftFabricWarehouse",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<Microsoft Fabric Warehouse input dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<output dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "WarehouseSource",
                "sqlReaderQuery": "SELECT * FROM MyTable"
            },
            "sink": {
                "type": "<sink type>"
            }
        }
    }
]

Beispiel: Verwenden von gespeicherten Prozeduren

"activities":[
    {
        "name": "CopyFromMicrosoftFabricWarehouse",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<Microsoft Fabric Warehouse input dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<output dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "WarehouseSource",
                "sqlReaderStoredProcedureName": "CopyTestSrcStoredProcedureWithParameters",
                "storedProcedureParameters": {
                    "stringData": { "value": "str3" },
                    "identifier": { "value": "$$Text.Format('{0:yyyy}', <datetime parameter>)", "type": "Int"}
                }
            },
            "sink": {
                "type": "<sink type>"
            }
        }
    }
]

Gespeicherte Beispielprozedur:

CREATE PROCEDURE CopyTestSrcStoredProcedureWithParameters
(
    @stringData varchar(20),
    @identifier int
)
AS
SET NOCOUNT ON;
BEGIN
    select *
    from dbo.UnitTestSrcTable
    where dbo.UnitTestSrcTable.stringData != stringData
    and dbo.UnitTestSrcTable.identifier != identifier
END
GO

Microsoft Fabric Warehouse als Senkentyp

Azure Data Factory- und Synapse-Pipelines unterstützen Verwenden der Anweisung COPY zum Laden von Daten in das Microsoft Fabric Warehouse.

Wenn Sie Daten in Microsoft Fabric Warehouse kopieren möchten, legen Sie den Sinktyp in Copy Activity auf WarehouseSink fest. Die folgenden Eigenschaften werden im Abschnitt sink der Copy-Aktivität unterstützt:

Eigenschaft Beschreibung Erforderlich
type Die type-Eigenschaft der Senke der Copy-Aktivität muss auf WarehouseSink festgelegt werden. Ja
allowCopyCommand Gibt an, ob die COPY-Anweisung zum Laden von Daten in Microsoft Fabric Warehouse verwendet werden soll.

Informationen zu Einschränkungen und Details finden Sie im Abschnitt "Use COPY statement to load data into Microsoft Fabric Warehouse".

Der zulässige Wert ist True.
Ja
copyCommandSettings Eine Gruppe von Eigenschaften, die angegeben werden können, wenn die Eigenschaft allowCopyCommand auf TRUE festgelegt ist. Nein
writeBatchTimeout Diese Eigenschaft gibt die Wartezeit für den Abschluss der Insert- und Upsert-Vorgänge und die gespeicherte Prozedur an, bevor ein Timeout auftritt.

Zulässige Werte werden für den Zeitraum verwendet. Beispiel: „00:30:00“ für 30 Minuten. Wenn kein Wert festgelegt ist, wird für das Timeout der Standardwert „00:30:00“ verwendet.
Nein
preCopyScript Geben Sie eine SQL-Abfrage für die Copy-Aktivität an, die bei jeder Ausführung ausgeführt wird, bevor Daten in Microsoft Fabric Warehouse geschrieben werden. Sie können diese Eigenschaft nutzen, um vorab geladene Daten zu bereinigen. Nein
tableOption Gibt an, ob die Sinktabelle automatisch erstellt werden soll , wenn sie nicht auf der Grundlage des Quellschemas vorhanden ist. Zulässige Werte: none (Standard), autoCreate. Nein
Metrikensammlung deaktivieren Der Dienst sammelt Metriken für die Leistungsoptimierung von Kopiervorgängen und für Empfehlungen, wodurch zusätzlicher Zugriff auf die Masterdatenbank auftritt. Wenn Sie sich wegen dieses Verhaltens Gedanken machen, geben Sie true an, um es zu deaktivieren. Nein (Standard = false)

Beispiel: Microsoft Fabric Warehouse-Senke

"activities":[
    {
        "name": "CopyToMicrosoftFabricWarehouse",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "<input dataset name>",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "<Microsoft Fabric Warehouse output dataset name>",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "<source type>"
            },
            "sink": {
                "type": "WarehouseSink",
                "allowCopyCommand": true,
                "tableOption": "autoCreate",
                "disableMetricsCollection": false
            }
        }
    }
]

Paralleles Kopieren aus Microsoft Fabric Warehouse

Der Microsoft Fabric Warehouse-Connector in der Copy-Aktivität verfügt über eine integrierte Datenpartitionierung zum parallelen Kopieren von Daten. Sie finden die Optionen für die Datenpartitionierung auf der Registerkarte " Quelle " der Kopieraktivität.

Screenshot der Partitionsoptionen

Wenn Sie das partitionierte Kopieren aktivieren, führt die Copy-Aktivität parallele Abfragen für Ihre Microsoft Fabric Warehouse-Quelle aus, um Daten nach Partitionen zu laden. Der Parallelitätsgrad wird über die Einstellung parallelCopies der Kopieraktivität gesteuert. Wenn Sie parallelCopies z. B. auf 4 festlegen, generiert der Dienst gleichzeitig vier Abfragen auf der Grundlage der von Ihnen angegebenen Partitionsoption und -einstellungen und führt sie aus, wobei jede Abfrage einen Teil der Daten aus Microsoft Fabric Warehouse abruft.

Es wird empfohlen, das parallele Kopieren mit Datenpartitionierung vor allem dann zu aktivieren, wenn Sie große Datenmengen aus Microsoft Fabric Warehouse laden. Im Anschluss finden Sie empfohlene Konfigurationen für verschiedene Szenarien. Beim Kopieren von Daten in einen dateibasierten Datenspeicher wird empfohlen, mehrere Dateien in einen Ordner zu schreiben (nur den Ordnernamen anzugeben). In diesem Fall ist die Leistung besser als beim Schreiben in eine einzelne Datei.

Szenario Empfohlene Einstellungen
Vollständiges Laden aus einer großen Tabelle mit einer integer- oder datetime-Spalte für die Datenpartitionierung Partitionsoptionen: Partition des dynamischen Bereichs.
Partitionsspalte (optional): Geben Sie die Spalte an, die für Partitionsdaten verwendet wird. Ohne Angabe wird der Index oder die Primärschlüsselspalte verwendet.
Partition obergrenze und Partition untere Grenze (optional): Geben Sie an, ob Sie die Partitionsstride bestimmen möchten. Dies dient nicht zum Filtern der Zeilen in der Tabelle, und alle Zeilen in der Tabelle werden partitioniert und kopiert. Wenn nicht angegeben, werden die Werte für die Kopieraktivität automatisch erkannt.

Wenn Ihre Partitionsspalte "ID" beispielsweise einen Wertebereich von 1 bis 100 hat und Sie die untere Grenze auf 20 und die obere Grenze auf 80 und die Parallelkopie auf 4 setzen, ruft der Dienst Daten nach 4 Partitionen ab - IDs im Bereich <=20, [21, 50], [51, 80] bzw. >=81.
Laden einer großen Datenmenge unter Verwendung einer benutzerdefinierten Abfrage mit einer integer- oder date/datetime-Spalte für die Datenpartitionierung Partitionsoptionen: Partition des dynamischen Bereichs.
Abfrage: SELECT * FROM <TableName> WHERE ?DfDynamicRangePartitionCondition AND <your_additional_where_clause>.
Partitionsspalte: Geben Sie die Spalte an, die zum Partitionieren von Daten verwendet wird.
Partition obergrenze und Partition untere Grenze (optional): Geben Sie an, ob Sie die Partitionsstride bestimmen möchten. Dies dient nicht zum Filtern der Zeilen in der Tabelle, und alle Zeilen im Abfrageergebnis werden partitioniert und kopiert. Wenn nicht angegeben, wird der Wert für die Kopieraktivität automatisch erkannt.

Wenn Ihre Partitionsspalte „ID“ beispielsweise einen Wertebereich von 1 bis 100 hat und Sie die untere Grenze auf 20, die obere Grenze auf 80 und die Parallelkopie auf 4 festlegen, ruft der Dienst Daten nach 4 Partitionen ab – IDs im Bereich <=20, [21, 50], [51, 80] bzw. >=81.

Hier finden Sie weitere Beispiele für verschiedene Szenarien:
1. Abfragen der gesamten Tabelle:
SELECT * FROM <TableName> WHERE ?DfDynamicRangePartitionCondition
2. Abfragen aus einer Tabelle mit Spaltenauswahl und zusätzlichen WHERE-Klausel-Filtern:
SELECT <column_list> FROM <TableName> WHERE ?DfDynamicRangePartitionCondition AND <your_additional_where_clause>
3. Abfragen mit Unterabfragen:
SELECT <column_list> FROM (<your_sub_query>) AS T WHERE ?DfDynamicRangePartitionCondition AND <your_additional_where_clause>
4. Abfragen mit Partition in Unterabfrage:
SELECT <column_list> FROM (SELECT <your_sub_query_column_list> FROM <TableName> WHERE ?DfDynamicRangePartitionCondition) AS T

Bewährte Methoden zum Laden von Daten mit Partitionierungsoption:

  • Wählen Sie eine aussagekräftige Spalte als Partitionsspalte (wie Primärschlüssel oder eindeutiger Schlüssel), um Datenabweichungen zu vermeiden.
  • Wenn Sie Azure Integration Runtime zum Kopieren von Daten verwenden, können Sie größere "Datenintegrationseinheiten (DIU)" (>4) festlegen, um mehr Computerressource zu nutzen. Prüfen Sie dort die anwendbaren Szenarien.
  • "Grad der Kopierparallelität" steuert die Partitionsnummern. Wenn diese Zahl zu groß gewählt wird, kann dies die Leistung beeinträchtigen. Es wird empfohlen, diese Zahl als (DIU oder Anzahl der selbst gehosteten IR-Knoten) * (2 bis 4) festzulegen.
  • Beachten Sie, dass Microsoft Fabric Warehouse maximal 32 Abfragen gleichzeitig ausführen kann. Wenn Sie „Parallelitätsgrad für Kopiervorgänge“ auf einen zu hohen Wert festlegen, kann dies zu einem Warehouse-Drosselungsproblem führen.

Beispiel: Abfrage mit dynamischer Bereichspartition

"source": {
    "type": "WarehouseSource",
    "query": "SELECT * FROM <TableName> WHERE ?DfDynamicRangePartitionCondition AND <your_additional_where_clause>",
    "partitionOption": "DynamicRange",
    "partitionSettings": {
        "partitionColumnName": "<partition_column_name>",
        "partitionUpperBound": "<upper_value_of_partition_column (optional) to decide the partition stride, not as data filter>",
        "partitionLowerBound": "<lower_value_of_partition_column (optional) to decide the partition stride, not as data filter>"
    }
}

Verwenden der COPY-Anweisung zum Laden von Daten in Microsoft Fabric Warehouse

Die Verwendung der COPY-Anweisung ist eine einfache und flexible Möglichkeit zum Laden von Daten in Microsoft Fabric Warehouse mit hohem Durchsatz. Weitere Informationen finden Sie unter Massenladen von Daten mit der COPY-Anweisung.

  • Wenn sich Ihre Quelldaten in Azure Blob oder Azure Data Lake Storage Gen2 befindet und das Format COPY-Anweisung kompatibel ist, können Sie kopieraktivitäten verwenden, um die COPY-Anweisung direkt aufzurufen, damit Microsoft Fabric Warehouse die Daten aus der Quelle abruft. Ausführliche Informationen finden Sie unter "Direkte Kopie mithilfe der COPY-Anweisung".
  • Wenn Ihr Quelldatenspeicher und -format ursprünglich nicht von der COPY-Anweisung unterstützt wird, verwenden Sie stattdessen die Funktion „Staged Copy mit COPY-Anweisung“. Das Feature für gestaffeltes Kopieren bietet Ihnen auch einen höheren Durchsatz. Es konvertiert die Daten automatisch in ein mit der COPY-Anweisung kompatibles Format, speichert die Daten in Azure Blob Storage und ruft dann die COPY-Anweisung auf, um die Daten in Microsoft Fabric Warehouse zu laden.

Tipp

Bei Verwendung der COPY-Anweisung mit Azure Integration Runtime sind die effektiven Datenintegrationseinheiten (DIUs) immer auf 2 festgelegt. Die Optimierung der Datenintegrationseinheit (Data Integration Unit, DIU) hat keinen Einfluss auf die Leistung.

Direktes Kopieren mithilfe der COPY-Anweisung

Azure Blob Storage, Azure Data Lake Storage Gen1 und Azure Data Lake Storage Gen2 werden von der COPY-Anweisung von Microsoft Fabric Warehouse direkt unterstützt. Wenn Ihre Quelldaten die in diesem Abschnitt beschriebenen Kriterien erfüllen, können Sie Daten mithilfe der COPY-Anweisung direkt aus dem Quelldatenspeicher in Microsoft Fabric Warehouse kopieren. Verwenden Sie andernfalls eine mehrstufige Kopie mithilfe der COPY-Anweisung. Der Dienst überprüft die Einstellungen und gibt bei der Ausführung der Copy-Aktivität einen Fehler aus, wenn die Kriterien nicht erfüllt werden.

  • Der mit der Quelle verknüpfte Dienst und das Format verfügen über die folgenden Typen und Authentifizierungsmethoden:

    Unterstützter Quelldatenspeichertyp Unterstütztes Format: Unterstützter Quellauthentifizierungstyp
    Azure-Blob Abgegrenzter Text Kontoschlüsselauthentifizierung, SAS-Authentifizierung (Shared Access Signature)
      Parquet Kontoschlüsselauthentifizierung, SAS-Authentifizierung (Shared Access Signature)
    Azure Data Lake Storage Gen2 Abgegrenzter Text
    Parquet
    Kontoschlüsselauthentifizierung, SAS-Authentifizierung (Shared Access Signature)
  • Die Formateinstellungen lauten folgendermaßen:

    • Für Parquet: compression kann ohne Komprimierung, Snappy oder GZip sein.
    • Bei Text mit Trennzeichen:
      • rowDelimiter wird explizit als einzelnes Zeichen oder "\r\n" festgelegt, der Standardwert wird nicht unterstützt.
      • nullValue ist als Standard oder als leere Zeichenfolge ("") festgelegt.
      • encodingName wird als Standardwert übernommen oder ist auf utf-8 oder utf-16 festgelegt.
      • escapeChar muss quoteChar entsprechen und darf nicht leer sein.
      • skipLineCount wird als Standardwert übernommen oder ist auf 0 festgelegt.
      • compression kann keine Komprimierung oder GZip sein.
  • Wenn es sich bei der Quelle um einen Ordner handelt, muss recursive beim Kopiervorgang auf „TRUE“ festgelegt sein, und wildcardFilename muss * oder *.* sein.

  • wildcardFolderPath, wildcardFilename (anders als * oder *.*), modifiedDateTimeStart, modifiedDateTimeEnd, prefix, enablePartitionDiscovery und additionalColumns werden nicht angegeben.

Die folgenden Einstellungen der COPY-Anweisung werden unter allowCopyCommand in der Kopieraktivität unterstützt:

Eigenschaft Beschreibung Erforderlich
Standardwerte Gibt die Standardwerte für jede Zielspalte in Microsoft Fabric Warehouse an. Die Standardwerte in der Eigenschaft überschreiben die in Data Warehouse festgelegte DEFAULT-Einschränkung, und die Identitätsspalte darf keinen Standardwert haben. Nein
zusätzlicheOptionen Zusätzliche Optionen, die direkt in der WITH-Klausel der COPY-Anweisung an eine COPY-Anweisung von Microsoft Fabric Warehouse übergeben werden. Geben Sie den Wert so an, wie er gemäß den Anforderungen der COPY-Anweisung erforderlich ist. Nein
"activities":[
    {
        "name": "CopyFromAzureBlobToMicrosoftFabricWarehouseViaCOPY",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "ParquetDataset",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "MicrosoftFabricWarehouseDataset",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "ParquetSource",
                "storeSettings":{
                    "type": "AzureBlobStorageReadSettings",
                    "recursive": true
                }
            },
            "sink": {
                "type": "WarehouseSink",
                "allowCopyCommand": true,
                "copyCommandSettings": {
                    "defaultValues": [
                        {
                            "columnName": "col_string",
                            "defaultValue": "DefaultStringValue"
                        }
                    ],
                    "additionalOptions": {
                        "MAXERRORS": "10000",
                        "DATEFORMAT": "'ymd'"
                    }
                }
            },
            "enableSkipIncompatibleRow": true
        }
    }
]

Gestaffeltes Kopieren mithilfe der COPY-Anweisung

Wenn Ihre Quelldaten nicht nativ mit der COPY-Anweisung kompatibel sind, können Sie die Daten über eine zwischengeschaltete Azure Blob- oder Azure Data Lake Storage Gen2-Instanz mit Staging kopieren (es kann nicht Azure Storage Premium sein). In diesem Fall konvertiert der Dienst die Daten automatisch, damit das Datenformat den Anforderungen der COPY-Anweisung entspricht. Anschließend ruft er die COPY-Anweisung auf, um Daten in Microsoft Fabric Warehouse zu laden. Abschließend werden Sie die temporären Daten im Speicher bereinigt. Details zum Kopieren von Daten über ein Staging finden Sie unter "Mehrstufige Kopie ".

Um dieses Feature zu verwenden, erstellen Sie einen verknüpften Azure Blob Storage-Dienst oder azure Data Lake Storage Gen2-verknüpften Dienst mit freigegebener Zugriffssignatur, anonymer oder Kontoschlüsselauthentifizierung , die sich auf das Azure-Speicherkonto als Zwischenspeicher bezieht.

Wichtig

Wichtig

Wenn Ihre Azure Storage-Staginginstanz mit verwaltetem privatem Endpunkt konfiguriert und die Speicherfirewall aktiviert ist, müssen Sie die Authentifizierung per verwalteter Identität verwenden und dem Speicherblob-Datenleser Berechtigungen für die Synapse SQL Server-Instanz gewähren, um sicherzustellen, dass er während des Ladens mit der COPY-Anweisung auf die bereitgestellten Dateien zugreifen kann.

"activities":[
    {
        "name": "CopyFromSQLServerToMicrosoftFabricWarehouseViaCOPYstatement",
        "type": "Copy",
        "inputs": [
            {
                "referenceName": "SQLServerDataset",
                "type": "DatasetReference"
            }
        ],
        "outputs": [
            {
                "referenceName": "MicrosoftFabricWarehouseDataset",
                "type": "DatasetReference"
            }
        ],
        "typeProperties": {
            "source": {
                "type": "SqlSource",
            },
            "sink": {
                "type": "WarehouseSink",
                "allowCopyCommand": true
            },
            "stagingSettings": {
                "linkedServiceName": {
                    "referenceName": "MyStagingStorage",
                    "type": "LinkedServiceReference"
                }
            }
        }
    }
]

Eigenschaften von Mapping Data Flow

Beim Transformieren von Daten im Zuordnungsdatenfluss können Sie Tabellen in Microsoft Fabric Warehouse lesen und schreiben. Weitere Informationen finden Sie in der Quelltransformation und der Sinktransformation in Zuordnungsdatenflüssen.

Microsoft Fabric Warehouse als Quelle

Spezifische Einstellungen für Microsoft Fabric Warehouse sind auf der Registerkarte „Quellenoptionen” der Quellentransformation verfügbar.

Name Beschreibung Erforderlich Zulässige Werte Datenflussskript-Eigenschaft
Eingabe Wählen Sie aus, ob Sie die Quelle auf eine Tabelle verweisen (Äquivalent von * aus Tabellenname auswählen), oder geben Sie eine benutzerdefinierte SQL-Abfrage ein, oder rufen Sie Daten aus einer gespeicherten Prozedur ab. Abfrage: Wenn Sie im Eingabefeld „Query“ (Abfrage) auswählen, geben Sie eine SQL-Abfrage für die Quelle ein. Diese Einstellung überschreibt jede Tabelle, die Sie im Dataset ausgewählt haben. Order By-Klauseln werden hier nicht unterstützt, aber Sie können eine vollständige SELECT FROM-Anweisung festlegen. Sie können auch benutzerdefinierte Tabellenfunktionen verwenden. select * from udfGetData() ist eine UDF in SQL, die eine Tabelle zurückgibt. Diese Abfrage generiert eine Quelltabelle, die Sie in Ihrem Datenfluss verwenden können. Die Verwendung von Abfragen stellt auch eine gute Möglichkeit dar, um die Zeilen für Tests oder Suchvorgänge zu verringern. SQL-Beispiel: Select * from MyTable where customerId > 1000 and customerId < 2000 Ja Tabelle oder Abfrage oder gespeicherte Prozedur Format: „Table“
Batchgröße Geben Sie eine Batchgröße ein, um große Datenmengen in Leseblöcke zu segmentieren. In Datenflüssen wird diese Einstellung verwendet, um die Spark-Zwischenspeicherung in Spalten festzulegen. Dies ist ein Optionsfeld, in dem Spark-Standardwerte verwendet werden, wenn kein Wert eingegeben wurde. Nein Nummernwerte batchSize: 1234
Isolationsstufe Der Standardwert für SQL-Quellen in Mapping Data Flow lautet „Lesen nicht zugesichert“. Sie können die Isolationsstufe hier in einen der folgenden Werte ändern:• Read Committed • Read Uncommitted • Repeatable Read • Serializable • None (Isolationsstufe ignorieren) Ja • Read Committed • Read Uncommitted • Repeatable Read • Serializable • None (Isolationsstufe ignorieren) Isolationsebene

Hinweis

Lesezugriff über Staging wird nicht unterstützt. Eine CDC-Unterstützung ist für Microsoft Fabric Warehouse-Quellen derzeit nicht verfügbar.

Microsoft Fabric Warehouse als Senke

Spezifische Einstellungen für Microsoft Fabric Warehouse sind auf der Registerkarte „Einstellungen” der Senkentransformation verfügbar.

Name Beschreibung Erforderlich Zulässige Werte Datenflussskript-Eigenschaft
Updatemethode Bestimmt, welche Vorgänge für das Datenbankziel zulässig sind. Standardmäßig sind lediglich Einfügevorgänge zulässig. Wenn Sie für Zeilen Update-, Upsert- oder Löschvorgänge verwenden möchten, fügen Sie zunächst eine Transformation zur Änderung von Zeilen hinzu, um Zeilen für diese Aktionen zu kennzeichnen. Für Update-, Upsert- und Löschvorgänge muss mindestens eine Schlüsselspalte festgelegt werden, um die Zeile zu bestimmen, die geändert werden soll. Ja true oder false einfügebares aktualisierbares upsertable-Update
Aktion table Bestimmt, ob die Zieltabelle vor dem Schreiben neu erstellt werden soll oder alle Zeilen aus der Zieltabelle entfernt werden sollen.• None: An der Tabelle wird keine Aktion ausgeführt. • Recreate: Die Tabelle wird gelöscht und neu erstellt. Erforderlich, wenn eine neue Tabelle dynamisch erstellt wird.• Truncate: Alle Zeilen aus der Zieltabelle werden entfernt. Nein None oder Recreate oder Truncate Recreate: true Truncate: true
Staging aktivieren Der Stagingspeicher wird in der Ausführungsdatenflussaktivität konfiguriert. Wenn Sie die Authentifizierung per verwalteter Identität für den mit dem Speicher verknüpften Dienst verwenden, machen Sie sich jeweils mit den erforderlichen Konfigurationen für Azure Blob und Azure Data Lake Storage Gen2 vertraut. Wenn Ihre Azure Storage-Instanz mit einem VNET-Dienstendpunkt konfiguriert ist, müssen Sie die Authentifizierung per verwalteter Identität mit für das Speicherkonto aktivierter Option „Vertrauenswürdigen Microsoft-Diensten den Zugriff auf dieses Speicherkonto erlauben“ verwenden. Informationen hierzu finden Sie unter Auswirkungen der Verwendung von VNET-Dienstendpunkten mit Azure Storage. Nein true oder false stufend: true
Batchgröße Steuert, wie viele Zeilen in die einzelnen Buckets geschrieben werden. Durch größere Batches werden zwar Komprimierung und Arbeitsspeicheroptimierung verbessert, beim Zwischenspeichern von Daten besteht aber die Gefahr, dass Ausnahmen wegen unzureichenden Arbeitsspeichers auftreten. Nein Nummernwerte batchSize: 1234
Verwenden des Senkenschemas Standardmäßig wird eine temporäre Tabelle unter dem Sinkschema als Staging erstellt. Alternativ können Sie die Option Use sink schema deaktivieren und stattdessen im Select user DB schema einen Schemanamen angeben, unter dem Data Factory eine Stagingtabelle zum Laden von Upstream-Daten erstellt und diese nach Abschluss automatisch bereinigt. Stellen Sie sicher, dass Sie Tabellenberechtigungen in der Datenbank erstellen und die Berechtigung für das Schema ändern. Nein true oder false stagingSchemaName
Pre- und Post-SQL-Skripts Geben Sie mehrzeilige SQL-Skripts ein, die ausgeführt werden, bevor Daten in die Senkendatenbank geschrieben werden (Vorverarbeitung) und danach (Nachbearbeitung). Nein SQL-Skripts preSQLs:['set IDENTITY_INSERT mytable ON'] postSQLs:['set IDENTITY_INSERT mytable OFF'],

Verwendung von Fabric Warehouse als Senke mit aktiviertem Staging

Wenn der Stagingspeicherort eine Firewall aktiviert hat, können Zugriffsprobleme auftreten.

Problemumgehungen

  • Verschiedene Regionen:
    Wenn sich die Fabric-Kapazität und der Stagingspeicher in verschiedenen Regionen befinden, stellen Sie sicher, dass die erforderlichen IP-Adressen in der Speicherortfirewall zulässig sind, um die Konnektivität zu aktivieren.

  • Gleiche Region:
    Wenn sich die Fabric-Kapazität und der Stagingspeicher in derselben Region befinden und Zugriffsprobleme weiterhin bestehen, wählen Sie einen alternativen Stagingspeicherort in einer anderen Region als die Fabric-Kapazität aus.

Fehlerzeilenbehandlung

Standardmäßig scheitert eine Datenflussausführung beim ersten erhaltenen Fehler. Sie können die Option „Bei Fehler fortsetzen“ auswählen, die einen Abschluss des Datenflusses auch dann ermöglicht, wenn einzelne Zeilen Fehler aufweisen. Der Dienst bietet Ihnen verschiedene Optionen, mit denen Sie diese Fehlerzeilen behandeln können.

Transaktionscommit: Wählen Sie aus, ob Ihre Daten in einer einzelnen Transaktion oder in Batches geschrieben werden. Eine einzelne Transaktion führt zu einer besseren Leistung, und es werden keine geschriebenen Daten für andere sichtbar gemacht, bis die Transaktion abgeschlossen ist. Batchtransaktionen haben eine schlechtere Leistung, können aber für große Datasets verwendet werden.

Abgelehnte Daten ausgeben: Wenn diese Option aktiviert ist, können Sie die Fehlerzeilen in eine CSV-Datei in Azure Blob Storage oder ein Azure Data Lake Storage Gen2-Konto Ihrer Wahl ausgeben. Dadurch werden die Fehlerzeilen mit drei zusätzlichen Spalten geschrieben: dem SQL-Vorgang wie INSERT oder UPDATE, dem Datenfluss-Fehlercode und der Fehlermeldung für die Zeile.

Bericht bei Fehler als erfolgreich markieren: Wenn diese Option aktiviert ist, wird der Datenfluss als erfolgreich markiert, auch wenn Fehlerzeilen gefunden werden.

Hinweis

Für Microsoft Fabric Warehouse Linked Service lautet der unterstützte Authentifizierungstyp für den Dienstprinzipal "Key". "Zertifikat"-Authentifizierung wird nicht unterstützt.

Eigenschaften der Lookup-Aktivität

Ausführliche Informationen zu den Eigenschaften finden Sie unter Lookup-Aktivität.

Eigenschaften der GetMetadata-Aktivität

Weitere Informationen zu den Eigenschaften finden Sie unter GetMetadata-Aktivität

Datentypzuordnung für Microsoft Fabric Warehouse

Beim Kopieren von Daten aus Microsoft Fabric Warehouse werden innerhalb des Diensts die folgenden Zuordnungen von Microsoft Fabric Warehouse-Datentypen zu Zwischendatentypen verwendet. Informationen dazu, wie die Kopieraktivität das Quellschema und den Datentyp der Spüle zuordnet, finden Sie unter Schema- und Datentypzuordnungen.

Microsoft Fabric Warehouse-Datentyp Data Factory-Zwischendatentyp
BIGINT Int64
BINARY Byte[]
bit Boolean
char String; Char[]
date Datetime
datetime2 Datetime
Dezimalzahl Dezimalzahl
FILESTREAM-Attribut (varbinary(max)) Byte[]
Schweben Double
INT Int32
NUMERIC Dezimalzahl
Echt Ledig
SMALLINT Int16
time Zeitspanne
UNIQUEIDENTIFIER Leitfaden
varbinary Byte[]
varchar String; Char[]

Nächste Schritte

Eine Liste der Datenspeicher, die von der Kopieraktivität als Quelle oder Ziel unterstützt werden, finden Sie unter Unterstützte Datenspeicher.