Partager via


Ingérer des données depuis Fabric OneLake

Power Automate Process Mining vous offre la possibilité de stocker et de lire les données du journal des événements directement à partir de Fabric OneLake via le Lakehouse Fabric. Cette fonctionnalité simplifie la gestion de l’extraction, de la transformation et du chargement (ETL) en vous connectant directement à votre OneLake.

Cette fonctionnalité prend actuellement en charge l’ingestion des éléments suivants :

Tables

  • Tables Delta
    • Table Delta unique dans le lakehouse Fabric.

Fichiers et dossiers

  • CSV
    • Fichier CSV unique.
    • Dossier contenant plusieurs fichiers CSV ayant la même structure. Tous les fichiers sont ingérés.
  • Parquet
    • Fichier Parquet unique.
    • Dossier contenant plusieurs fichiers parquet ayant la même structure. Tous les fichiers sont ingérés.
  • Delta-parquet
    • Dossier contenant une structure delta-parquet.

Prérequis

  • Vous assurer que l’option Les utilisateurs peuvent accéder aux données stockées dans OneLake avec des applications externes à Fabric est activée dans les paramètres du client OneLake.

  • Un espace de travail Fabric différent de Mon espace de travail par défaut.

  • Le rôle Administrateur doit être attribué à l’utilisateur qui effectue la configuration initiale de l’espace de travail pour l’environnement pour les autres utilisateurs dans le même environnement.

  • L’espace de travail Fabric doit être partagé avec le principal de service Production des informations sur les processus avec un rôle Administrateur. Pour enregistrer le principal de service Production des informations sur les processus, suivez les étapes de la section Installer les outils Azure.

    Capture d’écran des paramètres de l’espace de travail Fabric avec partage avec le principal de service Informations sur le processus.

  • Un lakehouse Fabric doit être créé dans cet espace de travail avec les données dans les formats pris en charge.

Important

L’élément suivant n’est actuellement pas pris en charge : Fabric Lakehouses avec prise en charge de schéma activée.

  • Les données CSV de votre lakehouse doivent répondre aux exigences suivantes en matière de format de fichier CSV :

    • Type de compression : aucun
    • Délimiteur de colonne : virgule (,)
    • Délimiteur de ligne : valeur par défaut et encodage. Par exemple, valeur par défaut (\r,\n ou \r\n)

    Capture d’écran de l’écran des paramètres du format de fichier.

  • Toutes les données doivent être au format final du journal des événements et répondre aux exigences répertoriées dans la section Exigences en matière de données. Les données doivent être prêtes pour le mappage au schéma d’exploration de processus. Aucune transformation de données n’est disponible après l’ingestion.

  • La taille (largeur) de la ligne d’en-tête est actuellement limitée à 1 Mo.

Important

Assurez-vous que l’horodatage représenté dans votre fichier CSV respecte le format standard ISO 8601 (par exemple, YYYY-MM-DD HH:MM:SS.sss ou YYYY-MM-DDTHH:MM:SS.sss).

Se connecter à Fabric OneLake

  1. Dans le volet de navigation de gauche, sélectionnez Explorer>Démarrer ici.

  2. Dans le champ Nom du processus, saisissez un nom pour votre processus.

  3. Sous l’en-tête Source de données, sélectionnez Importer des données>OneLake>Continuer.

    Capture d’écran de l’étape « Créer un processus ».

  4. Sélectionnez un espace de travail Power BI facultatif ou sélectionnez Ignorer.

  5. Sur l'écran Configuration de la connexion, sélectionnez votre Espace de travail Fabric dans le menu déroulant. Cela remplit le menu déroulant Lakehouse. Dans le menu, sélectionnez le lakehouse contenant vos données et sélectionnez Suivant.

  6. Parcourez la structure de dossiers du Lakehouse et sélectionnez la table, le fichier ou le dossier Delta contenant les données du journal des événements.

    Vous pouvez sélectionner une seule table Delta, un seul fichier ou un dossier contenant plusieurs fichiers. Tous les fichiers doivent avoir les mêmes en-têtes et le même format.

  7. Sélectionnez Suivant.

  8. Dans l’écran Mapper vos données, mappez vos données au schéma requis.

    Capture d’écran de l’écran Mapper vos données.

  9. Terminez la connexion en sélectionnant Enregistrer et analyser.

Définir les paramètres d’actualisation incrémentielle des données

Vous pouvez actualiser un processus ingéré à partir de Fabric OneLake selon un calendrier, via une actualisation complète ou incrémentielle. Bien qu’il n’existe pas de stratégies de rétention, vous pouvez ingérer des données de manière incrémentielle en utilisant l’une des méthodes suivantes :

Si vous avez sélectionné une seule table Delta dans la section précédente, ajoutez plus de données à la table sélectionnée.

Si vous avez sélectionné un seul fichier dans la section précédente, ajoutez plus de données au fichier sélectionné.

Si vous avez sélectionné un dossier dans la section précédente, ajoutez des fichiers incrémentiels au dossier sélectionné.

Important

Lorsque vous ajoutez des fichiers incrémentiels à un dossier ou sous-dossier sélectionné, assurez-vous d’indiquer l’ordre d’incrémentation en nommant les fichiers avec des dates, par exemple, AAAAMMJJ.csv ou AAAAMMJJHHMMSS.csv.

Pour actualiser un processus :

  1. Accédez à la page Détails du processus.

  2. Sélectionnez Paramètres d’actualisation.

  3. Dans l’écran Planifier l’actualisation, procédez comme suit :

    1. Activez le bouton bascule Maintenir les données à jour.
    2. Dans les listes déroulantes Actualiser les données chaque, sélectionnez la fréquence d’actualisation.
    3. Dans les champs Commencer à, sélectionnez la date et l’heure de l’actualisation.
    4. Activez le bouton bascule Actualisation incrémentielle.