Freigeben über


Eigenen Azure Data Lake Storage Gen2 einbringen

Power Automate Process Mining bietet Ihnen die Möglichkeit, Ereignisprotokolldaten direkt von Azure Data Lake Storage Gen2 zu speichern und zu lesen. Diese Funktion vereinfacht die Verwaltung extrahieren, transformieren laden (ETL) durch direkte Verbindung mit Ihrem Speicherkonto.

Diese Funktion unterstützt derzeit die Erfassung der folgenden Daten:

Tabellen

  • Delta-Tabellen
    • Einzelne Delta-Tabelle in Fabric Lakehouse.

Dateien und Ordner

  • CSV
    • Einzelne CSV-Datei.
    • Ordner mit mehreren CSV-Dateien, die dieselbe Struktur haben. Alle Dateien werden aufgenommen.
  • Parquet
    • Einzelne Parquet-Datei.
    • Ordner mit mehreren Parquet-Dateien, die die gleiche Struktur haben. Alle Dateien werden aufgenommen.
  • Delta-Parquet
    • Ordner, der eine Delta-Parquet-Struktur enthält.

Anforderungen

  • Das Data Lake Storage Konto muss Gen2 sein. Sie können dies im Azure-Portal überprüfen. Azure Data Lake Gen1-Speicherkonten werden nicht unterstützt.

  • Das Data Lake Storage Konto muss hierarchischer Namespace aktiviert haben.

  • Die Rolle für die Besitzer (auf Speicherkonto-Ebene) muss dem Benutzenden zugewiesen werden, der den Container für die Umgebung für die nachfolgenden Benutzer in derselben Umgebung erstmals einrichtet. Diese Benutzenden stellen eine Verbindung zum selben Container her und müssen über die folgenden Zuweisungen verfügen:

    • Rolle Storage-Blob-Datenleser oder Storage-Blob-Daten-Mitwirkender muss zugewiesen sein
    • Mindestens die Azure Resource Manager-Rolle Leser muss zugewiesen sein.
  • Die Ressourcenfreigabe (CORS)-Regel sollte für die Freigabe Ihres Speicherkontos mit dem Power Automate Process Mining eingerichtet werden.

    • Zulässige Ursprünge müssen auf https://make.powerautomate.com und https://make.powerapps.com festgelegt werden.

    • Zulässige Methoden müssen sein: get, options, put, post.

    • Zulässige Header sollten so flexibel wie möglich sein. Wir empfehlen, sie als * zu definieren.

    • Sichtbare Header sollten so flexibel wie möglich sein. Wir empfehlen, sie als * zu definieren.

    • Das Höchstalter sollte möglichst flexibel sein. Wir empfehlen die Verwendung der 86400.

      Screenshot des Beispiels der CORS-Einstellungsanzeige.

  • Die CSV-Daten in Ihrem Data Lake Storage sollten die folgenden Anforderungen an das CSV-Dateiformat erfüllen:

    • Komprimierungstyp: Keiner
    • Spaltentrennzeichen: Komma (,)
    • Zeilentrennzeichen: Standard und Kodierung. Beispielsweise Standard (\r, \n oder \r\n)

    Screenshot der Anzeige der Dateiformateinstellungen.

  • Alle Daten müssen im endgültigen Ereignisprotokollformat vorliegen und die unter Datenanforderungen aufgeführten Anforderungen erfüllen. Die Daten sollten bereit sein, dem Process-Mining-Schema zugeordnet zu werden. Nach der Aufnahme ist keine Datentransformation verfügbar.

  • Die Größe (Breite) der Kopfzeile ist derzeit auf 1 MB begrenzt.

Wichtig

Stellen Sie sicher, dass der in Ihrer CSV-Datei dargestellte Zeitstempel dem ISO 8601-Standardformat folgt (z. B. YYYY-MM-DD HH:MM:SS.sss oder YYYY-MM-DDTHH:MM:SS.sss).

Mit Azure Data Lake Storage verbinden

  1. Wählen Sie links im Navigationsbereich Process Mining>Hier beginnen.

  2. Geben Sie im Feld Prozessname einen Namen für den Prozess ein.

  3. Wählen Sie unter der Überschrift DatenquelleDaten importieren>Azure Data Lake>Weiter aus. Screenshot des Schritts „Prozess erstellen“.

  4. Wählen Sie auf der Anzeige VerbindungseinrichtungAbonnement-ID, Ressourcengruppe, Speicherkonto und Container aus den Dropdown-Menüs aus.

  5. Wählen Sie die Datei oder den Ordner mit den Ereignisprotokolldaten aus.

    Sie können entweder eine einzelne Datei oder einen Ordner mit mehreren Dateien auswählen. Alle Dateien müssen die gleichen Header und das gleiche Format haben.

  6. Wählen Sie Weiter.

  7. Auf der Anzeige Daten zuordnen ordnen Sie auf der Anzeige die Daten dem erforderlichen Schema zu.

    Screenshot der Anzeige Daten zuordnen.

  8. Schließen Sie die Verbindung ab, indem Sie Speichern und analysieren auswählen.

Einstellungen für inkrementelle Datenaktualisierung festlegen

Sie können einen aus Azure Data Lake übernommenen Prozess nach einem Zeitplan aktualisieren, entweder durch eine vollständige oder inkrementelle Aktualisierung. Obwohl es keine Aufbewahrungsrichtlinien gibt, können Sie Daten mit einer der folgenden Methoden inkrementell erfassen:

Wenn Sie eine einzelne Datei im vorherigen Abschnitt ausgewählt haben, hängen Sie weitere Daten an die ausgewählte Datei an.

Wenn Sie einen Ordner im vorherigen Abschnitt ausgewählt haben, fügen Sie inkrementelle Dateien zum ausgewählten Ordner hinzu.

Wichtig

Wenn Sie inkrementelle Dateien zu einem ausgewählten Ordner oder Unterordner hinzufügen, stellen Sie sicher, dass Sie die Reihenfolge der Inkrementierung angeben, indem Sie Dateien mit Datumsangaben wie YYYMMDD.csv oder YYYYMMDDHHMMSS.csv benennen.

Um einen Prozess zu aktualisieren:

  1. Gehen Sie zur Seite Details des Prozesses.

  2. Aktualisierungseinstellungen auswählen.

  3. Auf der Anzeige Planen Sie die Aktualisierung führen Sie die folgenden Schritte aus:

    1. Aktivieren Sie die Umschaltung Daten aktualisiert halten.
    2. In der Dropdownliste Daten aktualisieren alle wählen Sie die Häufigkeit der Aktualisierung aus.
    3. In den Feldern Anfangen bei wählen Sie das Datum und die Uhrzeit der Aktualisierung aus.
    4. Aktivieren Sie die Umschaltung Inkrementelle Aktualisierung.