Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Power Automate Process Mining bietet Ihnen die Möglichkeit, Ereignisprotokolldaten direkt von Azure Data Lake Storage Gen2 zu speichern und zu lesen. Diese Funktion vereinfacht die Verwaltung extrahieren, transformieren laden (ETL) durch direkte Verbindung mit Ihrem Speicherkonto.
Diese Funktion unterstützt derzeit die Erfassung der folgenden Daten:
Tabellen
-
Delta-Tabellen
- Einzelne Delta-Tabelle in Fabric Lakehouse.
Dateien und Ordner
-
CSV
- Einzelne CSV-Datei.
- Ordner mit mehreren CSV-Dateien, die dieselbe Struktur haben. Alle Dateien werden aufgenommen.
-
Parquet
- Einzelne Parquet-Datei.
- Ordner mit mehreren Parquet-Dateien, die die gleiche Struktur haben. Alle Dateien werden aufgenommen.
-
Delta-Parquet
- Ordner, der eine Delta-Parquet-Struktur enthält.
Anforderungen
Das Data Lake Storage Konto muss Gen2 sein. Sie können dies im Azure-Portal überprüfen. Azure Data Lake Gen1-Speicherkonten werden nicht unterstützt.
Das Data Lake Storage Konto muss hierarchischer Namespace aktiviert haben.
Die Rolle für die Besitzer (auf Speicherkonto-Ebene) muss dem Benutzenden zugewiesen werden, der den Container für die Umgebung für die nachfolgenden Benutzer in derselben Umgebung erstmals einrichtet. Diese Benutzenden stellen eine Verbindung zum selben Container her und müssen über die folgenden Zuweisungen verfügen:
- Rolle Storage-Blob-Datenleser oder Storage-Blob-Daten-Mitwirkender muss zugewiesen sein
- Mindestens die Azure Resource Manager-Rolle Leser muss zugewiesen sein.
Die Ressourcenfreigabe (CORS)-Regel sollte für die Freigabe Ihres Speicherkontos mit dem Power Automate Process Mining eingerichtet werden.
Zulässige Ursprünge müssen auf
https://make.powerautomate.comundhttps://make.powerapps.comfestgelegt werden.Zulässige Methoden müssen sein:
get,options,put,post.Zulässige Header sollten so flexibel wie möglich sein. Wir empfehlen, sie als
*zu definieren.Sichtbare Header sollten so flexibel wie möglich sein. Wir empfehlen, sie als
*zu definieren.Das Höchstalter sollte möglichst flexibel sein. Wir empfehlen die Verwendung der
86400.
Die CSV-Daten in Ihrem Data Lake Storage sollten die folgenden Anforderungen an das CSV-Dateiformat erfüllen:
- Komprimierungstyp: Keiner
- Spaltentrennzeichen: Komma (,)
- Zeilentrennzeichen: Standard und Kodierung. Beispielsweise Standard (\r, \n oder \r\n)
Alle Daten müssen im endgültigen Ereignisprotokollformat vorliegen und die unter Datenanforderungen aufgeführten Anforderungen erfüllen. Die Daten sollten bereit sein, dem Process-Mining-Schema zugeordnet zu werden. Nach der Aufnahme ist keine Datentransformation verfügbar.
Die Größe (Breite) der Kopfzeile ist derzeit auf 1 MB begrenzt.
Wichtig
Stellen Sie sicher, dass der in Ihrer CSV-Datei dargestellte Zeitstempel dem ISO 8601-Standardformat folgt (z. B. YYYY-MM-DD HH:MM:SS.sss oder YYYY-MM-DDTHH:MM:SS.sss).
Mit Azure Data Lake Storage verbinden
Wählen Sie links im Navigationsbereich Process Mining>Hier beginnen.
Geben Sie im Feld Prozessname einen Namen für den Prozess ein.
Wählen Sie unter der Überschrift DatenquelleDaten importieren>Azure Data Lake>Weiter aus.
Wählen Sie auf der Anzeige VerbindungseinrichtungAbonnement-ID, Ressourcengruppe, Speicherkonto und Container aus den Dropdown-Menüs aus.
Wählen Sie die Datei oder den Ordner mit den Ereignisprotokolldaten aus.
Sie können entweder eine einzelne Datei oder einen Ordner mit mehreren Dateien auswählen. Alle Dateien müssen die gleichen Header und das gleiche Format haben.
Wählen Sie Weiter.
Auf der Anzeige Daten zuordnen ordnen Sie auf der Anzeige die Daten dem erforderlichen Schema zu.
Schließen Sie die Verbindung ab, indem Sie Speichern und analysieren auswählen.
Einstellungen für inkrementelle Datenaktualisierung festlegen
Sie können einen aus Azure Data Lake übernommenen Prozess nach einem Zeitplan aktualisieren, entweder durch eine vollständige oder inkrementelle Aktualisierung. Obwohl es keine Aufbewahrungsrichtlinien gibt, können Sie Daten mit einer der folgenden Methoden inkrementell erfassen:
Wenn Sie eine einzelne Datei im vorherigen Abschnitt ausgewählt haben, hängen Sie weitere Daten an die ausgewählte Datei an.
Wenn Sie einen Ordner im vorherigen Abschnitt ausgewählt haben, fügen Sie inkrementelle Dateien zum ausgewählten Ordner hinzu.
Wichtig
Wenn Sie inkrementelle Dateien zu einem ausgewählten Ordner oder Unterordner hinzufügen, stellen Sie sicher, dass Sie die Reihenfolge der Inkrementierung angeben, indem Sie Dateien mit Datumsangaben wie YYYMMDD.csv oder YYYYMMDDHHMMSS.csv benennen.
Um einen Prozess zu aktualisieren:
Gehen Sie zur Seite Details des Prozesses.
Aktualisierungseinstellungen auswählen.
Auf der Anzeige Planen Sie die Aktualisierung führen Sie die folgenden Schritte aus:
- Aktivieren Sie die Umschaltung Daten aktualisiert halten.
- In der Dropdownliste Daten aktualisieren alle wählen Sie die Häufigkeit der Aktualisierung aus.
- In den Feldern Anfangen bei wählen Sie das Datum und die Uhrzeit der Aktualisierung aus.
- Aktivieren Sie die Umschaltung Inkrementelle Aktualisierung.