Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Avec la préparation avancée des données disponible dans Power Apps, vous pouvez créer une collection de données appelée dataflow, que vous pouvez ensuite utiliser pour vous connecter à des données métier à partir de différentes sources, nettoyer les données, les transformer, puis les charger vers Microsoft Dataverse ou le compte de stockage Azure Data Lake Gen2 de votre organisation.
Un dataflow est une collection de tables créées et gérées dans des environnements dans le service Power Apps. Vous pouvez ajouter et modifier des tables dans votre dataflow, ainsi que gérer les planifications d’actualisation des données, directement à partir de l’environnement dans lequel votre dataflow a été créé.
Une fois que vous avez créé un flux de données dans le portail Power Apps, vous pouvez obtenir des données à partir de celui-ci à l’aide du connecteur Dataverse ou du connecteur De flux de données Power BI Desktop, selon la destination que vous avez choisie lors de la création du flux de données.
Il existe trois étapes principales pour utiliser un dataflow :
Créez le flux de données dans le portail Power Apps. Vous sélectionnez la destination vers laquelle charger les données de sortie, la source à partir de laquelle obtenir les données et les étapes Power Query pour transformer les données à l’aide d’outils Microsoft conçus pour simplifier cette opération.
Planifiez les exécutions du flux de données. Il s’agit de la fréquence à laquelle Power Platform Dataflow doit actualiser les données que votre dataflow va charger et transformer.
Utilisez les données que vous avez chargées dans le stockage de destination. Vous pouvez créer des applications, des flux, des rapports Power BI et des tableaux de bord ou vous connecter directement au dossier Common Data Model de votre organisation dans le lac de votre organisation à l’aide de services de données Azure tels qu’Azure Data Factory, Azure Databricks ou tout autre service prenant en charge la norme du dossier Common Data Model.
Les sections suivantes examinent chacune de ces étapes pour vous familiariser avec les outils fournis pour effectuer chaque étape.
Créer un flux de données
Les flux de données sont créés dans un environnement. Par conséquent, vous ne serez en mesure de les voir et de les gérer qu’à partir de cet environnement. En outre, les personnes qui souhaitent obtenir des données à partir de votre dataflow doivent avoir accès à l’environnement dans lequel vous l’avez créé.
Important
- La création de dataflows n’est actuellement pas disponible avec les licences du plan de développement Power Apps.
- Le navigateur web Firefox n’est actuellement pas pris en charge pour l’action « Télécharger le fichier d’historique des actualisations » dans les dataflows Power Apps. Plus d’informations : Vous recevez le message d’erreur « Un problème s’est produit lors de l’actualisation du flux de données »
Connectez-vous à Power Apps et vérifiez l’environnement dans lequel vous vous trouvez, recherchez le commutateur d’environnement près du côté droit de la barre de commandes.
Dans le volet de navigation de gauche, sélectionnez Dataflows. Si l’élément ne se trouve pas dans le volet latéral, sélectionnez …Plus, puis sélectionnez l’élément souhaité.
Sélectionnez Nouveau dataflow. Dans la page Nouveau dataflow , entrez un nom pour le flux de données. Par défaut, les dataflows stockent des tables dans Dataverse. Sélectionnez les entités analytiques uniquement si vous souhaitez que les tables soient stockées dans le compte de stockage Azure Data Lake de votre organisation. Cliquez sur Créer.
Important
Il n’y a qu’un seul propriétaire de flux de données : la personne qui l’a créée. Seul le propriétaire peut modifier le flux de données. L’autorisation et l’accès aux données créées par le flux de données dépendent de la destination vers laquelle vous avez chargé des données. Les données chargées dans Dataverse sont disponibles via le connecteur Dataverse et nécessitent que la personne accédant aux données soit autorisée à Dataverse. Les données chargées dans le compte de stockage Azure Data Lake Gen2 de votre organisation sont accessibles via le connecteur Dataflow Power Platform et l’accès à celui-ci nécessite l’appartenance à l’environnement dans lequel elle a été créée.
Dans la page Choisir une source de données , sélectionnez la source de données dans laquelle les tables sont stockées. La sélection de sources de données affichées vous permet de créer des tables de flux de données.
Après avoir sélectionné une source de données, vous êtes invité à fournir les paramètres de connexion, y compris le compte à utiliser lors de la connexion à la source de données. Cliquez sur Suivant.
Une fois connecté, vous sélectionnez les données à utiliser pour votre table. Lorsque vous choisissez des données et une source, le service Dataflow Power Platform se reconnecte ensuite à la source de données afin de conserver les données dans votre dataflow actualisé, à la fréquence à laquelle vous sélectionnez ultérieurement dans le processus d’installation.
Maintenant que vous avez sélectionné les données à utiliser dans la table, vous pouvez utiliser l’éditeur de flux de données pour mettre en forme ou transformer ces données dans le format nécessaire à utiliser dans votre dataflow.
Utiliser l’éditeur de flux de données pour mettre en forme ou transformer des données
Vous pouvez mettre en forme votre sélection de données dans un formulaire qui convient le mieux à votre table à l’aide d’une expérience d’édition Power Query, similaire à l’éditeur Power Query dans Power BI Desktop. Pour en savoir plus sur Power Query, consultez vue d’ensemble de la requête dans Power BI Desktop.
Si vous souhaitez voir le code créé par l’Éditeur de requête avec chaque étape ou si vous souhaitez créer votre propre code de mise en forme, vous pouvez utiliser l’éditeur avancé.
Dataflows et le Common Data Model
Les tables de dataflows incluent de nouveaux outils pour mapper facilement vos données métier au Common Data Model, les enrichir avec les données Microsoft et non-Microsoft et obtenir un accès simplifié au Machine Learning. Ces nouvelles fonctionnalités peuvent être exploitées pour fournir des insights intelligents et exploitables sur vos données métier. Une fois que vous avez effectué toutes les transformations de l’étape de modification des requêtes décrites ci-dessous, vous pouvez mapper des colonnes de vos tables de source de données à des colonnes de table standard, comme défini par Common Data Model. Les tables standard ont un schéma connu défini par Common Data Model.
Pour plus d’informations sur cette approche et sur Common Data Model, consultez Common Data Model.
Pour tirer parti du modèle de données commun avec votre dataflow, sélectionnez la transformation Map to Standard dans la boîte de dialogue Modifier les requêtes . Dans l’écran Mappage des tableaux qui s’affiche, sélectionnez la table standard que vous souhaitez mapper.
Lorsque vous mappez une colonne source à une colonne standard, les éléments suivants se produisent :
La colonne source prend le nom de colonne standard (la colonne est renommée si les noms sont différents).
La colonne source obtient le type de données de colonne standard.
Pour conserver la table standard Common Data Model, toutes les colonnes standard qui ne sont pas mappées obtiennent des valeurs Null .
Toutes les colonnes sources qui ne sont pas mappées restent telles quelles afin de garantir que le résultat du mappage est une table standard avec des colonnes personnalisées.
Une fois vos sélections terminées et votre table et ses paramètres de données terminés, vous êtes prêt pour l’étape suivante, qui sélectionne la fréquence d’actualisation de votre dataflow.
Définir la fréquence d’actualisation
Une fois vos tables définies, vous devez planifier la fréquence d’actualisation pour chacune de vos sources de données connectées.
Les dataflows utilisent un processus d’actualisation des données pour maintenir les données à jour. Dans l’outil de création de dataflow Power Platform, vous pouvez choisir d’actualiser votre dataflow manuellement ou automatiquement à un intervalle planifié de votre choix.
Planifier une actualisation automatiquement
Sélectionnez Actualiser automatiquement.
Entrez la fréquence du flux de données :
Actualisation basée sur la fréquence. Définissez la fréquence en incréments de 30 minutes, la date de début et l’heure utc.
Actualisez les jours et heures spécifiques. Choisissez le fuseau horaire, la fréquence (quotidienne ou hebdomadaire) et l’heure du jour par incréments de 30 minutes.
Sélectionnez Publier.
Certaines organisations peuvent vouloir utiliser leur propre stockage pour la création et la gestion des flux de données. Vous pouvez intégrer des dataflows à Azure Data Lake Storage Gen2 si vous suivez les conditions requises pour configurer correctement le compte de stockage. Plus d’informations : Connecter Azure Data Lake Storage Gen2 pour le stockage de flux de données
Résolution des problèmes de connexions de données
Il peut arriver que lors de la connexion à des sources de données, les flux de données rencontrent des problèmes. Cette section fournit des conseils de résolution des problèmes lorsque des problèmes se produisent.
Connecteur Salesforce. L’utilisation d’un compte d’évaluation pour Salesforce avec dataflows entraîne un échec de connexion sans aucune information fournie. Pour résoudre ce problème, utilisez un compte Salesforce de production ou un compte de développeur pour les tests.
Connecteur SharePoint. Veillez à fournir l’adresse racine du site SharePoint, sans sous-dossiers ou documents. Par exemple, utilisez un lien similaire à
https://microsoft.sharepoint.com/teams/ObjectModel.Connecteur de fichiers JSON. Actuellement, vous pouvez vous connecter à un fichier JSON à l’aide de l’authentification de base uniquement. Par exemple, une URL similaire à
https://XXXXX.blob.core.windows.net/path/file.json?sv=2019-01-01&si=something&sr=c&sig=123456abcdefgn’est actuellement pas prise en charge.Azure Synapse Analytics. Les dataflows ne prennent actuellement pas en charge l’authentification Microsoft Entra pour Azure Synapse Analytics. Utilisez l’authentification de base pour ce scénario.
Note
Si vous utilisez des stratégies de protection contre la perte de données (DLP) pour bloquer le connecteur HTTP avec Microsoft Entra (préautorisé), les connecteurs SharePoint et OData échouent. Le connecteur HTTP avec Microsoft Entra (préautorisé) doit être autorisé dans les stratégies DLP pour que les connecteurs SharePoint et OData fonctionnent.
Résoudre l’erreur : Échec de la connexion à Dataverse. Consultez le lien ci-dessous pour savoir comment résoudre ce problème
Les utilisateurs peuvent recevoir un message d’erreur si la connexion qu’ils utilisent pour l’exportation nécessite un correctif. Dans ce cas, l’utilisateur reçoit un message d’erreur indiquant que la connexion à Dataverse a échoué. Consultez le lien ci-dessous pour résoudre ce problème.
Pour résoudre ce problème :
- Dans Power Apps (make.powerapps.com), sélectionnez Connexions dans le volet de navigation gauche. Si l’élément ne se trouve pas dans le volet latéral, sélectionnez …Plus, puis sélectionnez l’élément souhaité.
- Localisez la connexion Microsoft Dataverse (héritée).
- Sélectionnez le lien Corriger la connexion dans la colonne État , puis suivez les instructions de votre écran.
Une fois le correctif terminé, réessayez l’exportation.
Vous recevez le message d’erreur « Un problème s’est produit lors de l’actualisation du flux de données »
Cette erreur se produit lorsque vous essayez d’actualiser le flux de données lors de l’utilisation du navigateur web Firefox. Pour contourner ce problème, utilisez un autre navigateur web, tel que Microsoft Edge ou Google Chrome.
Étapes suivantes
Les articles suivants sont utiles pour plus d’informations et de scénarios lors de l’utilisation de dataflows :
Utilisation d’une passerelle de données locale dans les dataflows Power Platform
Connecter Azure Data Lake Storage Gen2 pour le stockage de flux de données
Pour plus d’informations sur Common Data Model :