Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les dataflows analytiques stockent les données et les métadonnées dans Azure Data Lake Storage. Les dataflows utilisent une structure standard pour stocker et décrire les données créées dans le lac, appelées dossiers Common Data Model. Dans cet article, vous allez en savoir plus sur la norme de stockage que les flux de données utilisent en arrière-plan.
Le stockage a besoin d’une structure pour un dataflow analytique
Si le dataflow est standard, les données sont stockées dans Dataverse. Dataverse est comme un système de base de données ; il a le concept de tables, de vues, et ainsi de suite. Dataverse est une option de stockage de données structurée utilisée par les dataflows standard.
Toutefois, lorsque le dataflow est analytique, les données sont stockées dans Azure Data Lake Storage. Les données et métadonnées d’un dataflow sont stockées dans un dossier Common Data Model. Étant donné qu’un compte de stockage peut avoir plusieurs dataflows stockés dans celui-ci, une hiérarchie de dossiers et de sous-dossiers est introduite pour faciliter l’organisation des données. Selon le produit dans lequel le flux de données a été créé, les dossiers et les sous-dossiers peuvent représenter des espaces de travail (ou des environnements), puis le dossier Common Data Model du dataflow. Dans le dossier Common Data Model, le schéma et les données des tables de flux de données sont stockées. Cette structure suit les normes définies pour Common Data Model.
Qu’est-ce que la structure de stockage Common Data Model ?
Common Data Model est une structure de métadonnées définie pour assurer la conformité et la cohérence de l’utilisation de données sur plusieurs plateformes. Common Data Model n’est pas un stockage de données, c’est la façon dont les données sont stockées et définies.
Les dossiers Common Data Model définissent la façon dont le schéma d’une table et ses données doivent être stockés. Dans Azure Data Lake Storage, les données sont organisées dans des dossiers. Les dossiers peuvent représenter un espace de travail ou un environnement. Sous ces dossiers, les sous-dossiers de chaque flux de données sont créés.
Qu’est-ce qui se trouve dans un dossier de flux de données ?
Chaque dossier de flux de données contient un sous-dossier pour chaque table et un fichier de métadonnées nommé model.json.
Fichier de métadonnées : model.json
Le model.json fichier est la définition des métadonnées du flux de données. Ce fichier est le seul fichier qui contient toutes les métadonnées de flux de données. Il inclut une liste de tables, les colonnes et leurs types de données dans chaque table, la relation entre les tables, et ainsi de suite. Vous pouvez exporter ce fichier à partir d’un flux de données facilement, même si vous n’avez pas accès à la structure de dossiers Common Data Model.
Vous pouvez utiliser ce fichier JSON pour migrer (ou importer) votre flux de données dans un autre espace de travail ou environnement.
Pour savoir exactement ce que contient le fichier de métadonnées model.json, accédez au fichier de métadonnées (model.json) pour Common Data Model.
Fichiers de données
En plus du fichier de métadonnées, le dossier de flux de données inclut d’autres sous-dossiers. Un dataflow stocke les données de chaque table dans un sous-dossier avec le nom de la table. Les données d’une table peuvent être divisées en plusieurs partitions de données, stockées au format CSV.
Comment afficher ou accéder aux dossiers Common Data Model
Si vous utilisez des dataflows qui utilisent le stockage fourni par le produit dans lequel ils ont été créés, vous n’avez pas accès directement à ces dossiers. Dans ce cas, l’obtention de données à partir des dataflows nécessite l’utilisation du connecteur de flux de données Microsoft Power Platform disponible dans l’expérience Obtenir des données dans le service Power BI, Power Apps et les produits Dynamics 35 Customer Insights, ou dans Power BI Desktop.
Pour savoir comment les flux de données et l’intégration interne de Data Lake Storage fonctionnent, accédez aux dataflows et à l’intégration d’Azure Data Lake (préversion).
Si votre organisation a activé les flux de données pour tirer parti de son compte Data Lake Storage et a été sélectionné comme cible de chargement pour les flux de données, vous pouvez toujours obtenir des données à partir du flux de données à l’aide du connecteur de flux de données Power Platform, comme mentionné précédemment. Toutefois, vous pouvez également accéder au dossier Common Data Model du flux de données directement via le lac de données, même en dehors des outils et services Power Platform. L’accès au lac est possible via le portail Azure, l’Explorateur Stockage Microsoft Azure ou tout autre service ou expérience prenant en charge Azure Data Lake Storage. Pour plus d’informations, accédez à Connecter Azure Data Lake Storage Gen2 pour le stockage de flux de données.