Découvrez les équipes de données et Microsoft Fabric
La plateforme d’analytique des données unifiée de Microsoft Fabric facilite la collaboration des professionnels des données sur des projets. Fabric augmente la collaboration entre les professionnels des données en supprimant les silos de données et en éliminant le besoin de plusieurs systèmes.
Rôles et défis traditionnels
Dans un processus de développement d’analytique traditionnel, les équipes de données sont souvent confrontées à plusieurs défis en raison de la division des tâches et workflows de données.
Les ingénieurs données traitent et organisent des données pour les analystes, qui l’utilisent ensuite pour créer des rapports métier. Ce processus nécessite une coordination approfondie, ce qui entraîne souvent des retards et des interprétations erronées.
Les analystes de données doivent souvent effectuer des transformations de données en aval avant de créer des rapports Power BI. Ce processus prend beaucoup de temps et peut manquer de contexte nécessaire, ce qui rend plus difficile pour les analystes de se connecter directement aux données.
Les scientifiques des données rencontrent des difficultés à intégrer des techniques de science des données natives à des systèmes existants, qui sont souvent complexes et rend difficile de fournir efficacement des insights pilotés par les données.
Évolution des flux de travail collaboratifs
Microsoft Fabric simplifie le processus de développement d’analytique en unifiant les outils dans une plateforme SaaS. Fabric permet à différents rôles de collaborer efficacement sans dupliquer les efforts.
Les ingénieurs données peuvent ingérer, transformer et charger des données directement dans OneLake à l’aide de Pipelines, qui automatisent les flux de travail et prennent en charge la planification. Ils peuvent stocker des données dans des lakehouses en utilisant le format Delta-Parquet pour bénéficier d’un stockage et d’un contrôle de version efficaces. Les notebooks fournissent des fonctionnalités de script avancées pour les transformations complexes.
Les ingénieurs en analyse servent de pont entre l'ingénierie des données et l'analyse en organisant des ressources de données dans les entrepôts de données, en garantissant la qualité des données et en facilitant l'analytique en libre-service. Ils peuvent créer des modèles sémantiques dans Power BI pour organiser et présenter efficacement des données.
Les analystes de données peuvent transformer des données en amont à l’aide de dataflows et se connecter directement à OneLake en mode Direct Lake, ce qui réduit la nécessité de transformations en aval. Ils peuvent créer des rapports interactifs plus efficacement à l’aide de Power BI.
Les scientifiques des données peuvent utiliser des notebooks intégrés avec prise en charge de Python et Spark pour créer et tester des modèles Machine Learning. Ils peuvent stocker et accéder aux données dans lakehouses et s’intégrer à Azure Machine Learning pour opérationnaliser et déployer des modèles.
Les utilisateurs de low-code/no-code et les développeurs citoyens peuvent découvrir des jeux de données organisés via le catalogue OneLake et utiliser des modèles Power BI pour créer rapidement des rapports et des tableaux de bord. Ils peuvent également utiliser des dataflows pour effectuer des tâches ETL simples sans compter sur les ingénieurs données.