Partilhar via


Análise integral com o Microsoft Fabric

Microsoft Fabric
Azure Cosmos DB
Análise em tempo real
Azure Databricks
Hubs de Eventos do Azure

A solução deste artigo combina uma variedade de serviços Microsoft que ingerem, armazenam, processam, enriquecem e servem dados e insights de diferentes fontes. Estas fontes incluem formatos estruturados, semiestruturados, não estruturados e de streaming.

Architecture

Diagrama de arquitetura que mostra uma plataforma de dados moderna que utiliza Microsoft Fabric.

O diagrama mostra uma arquitetura detalhada de uma solução construída sobre o Microsoft Fabric. À esquerda, a arquitetura começa com fontes de dados diversas que incluem sistemas on-premises, Amazon Simple Storage Service (AWS S3), Google Cloud Storage e dados estruturados e não estruturados. Os eventstreams ingerem dados em tempo real e as bases de dados on-premises espelham os dados para plataformas cloud como Azure SQL Database, Azure Databricks e Snowflake. Um lakehouse armazena formatos brutos e semiestruturados, o Fabric Data Warehouse armazena análises estruturadas, e atalhos permitem o acesso transversal entre ambientes para melhorar a agilidade e integração. À direita, os notebooks, procedimentos armazenados, DataFlow Gen2 no Fabric e pipelines dentro do Fabric processam os dados armazenados. Análises avançadas e modelos de aprendizagem automática enriquecem os dados antes e depois de servirem os utilizadores. Uma arquitetura de dados lakehouse, pontos terminais de análise SQL, agentes de dados e Power BI disponibilizam dados processados e fornecem visualizações para garantir insights de alta qualidade que podem ser implementados. Na parte inferior, a camada da plataforma suporta toda a arquitetura com serviços como Microsoft Purview para governação, Microsoft Entra ID para gestão de identidade e Azure Key Vault para segredos seguros. O GitHub e o Azure DevOps permitem integração contínua e implementação contínua (CI/CD). O Azure Policy impõe a conformidade, a funcionalidade de monitorização do espaço de trabalho no Fabric fornece monitorização, e o Copilot no Fabric fornece desenvolvimento assistido por IA.

Amazon Simple Storage Service (AWS S3), Amazon Web Services (AWS), AWS Kinesis, Google Cloud Storage, Google Cloud, Google Cloud Pub/Sub e Snowflake são marcas registadas ou marcas registadas dos respetivos proprietários. Apache® e Apache Kafka são marcas registadas ou marcas da Apache Software Foundation nos Estados Unidos e/ou noutros países. A utilização destas marcas não implica endosso pelos respetivos titulares das marcas.

Baixe um arquivo Visio desta arquitetura.

Fluxo de dados

As secções seguintes descrevem como o OneLake serve como lar para os dados ao longo de várias fases do ciclo de vida dos dados. OneLake é o data lake unificado de nível empresarial integrado no Microsoft Fabric que serve como camada centralizada de armazenamento para todas as cargas de trabalho de dados, incluindo Fabric Data Engineer, Fabric Data Factory, Fabric Data Science, Fabric Data Warehouse, Fabric Real-Time Intelligence, Fabric Databases e Power BI.

Lakehouse

Use um lakehouse quando precisar de uma plataforma unificada, escalável e flexível. É ideal para gerir dados estruturados, semiestruturados e não estruturados, para apoiar análises, aprendizagem automática e relatórios. Organize os dados com a arquitetura medallion e use as camadas Bronze (bruto), Prata (validado) e Ouro (pronto para negócios) entre pastas, ficheiros, bases de dados e tabelas.

Armazém

Use o Data Warehouse quando precisar de uma solução analítica de alto desempenho, totalmente gerida e baseada em SQL para gerir dados estruturados e semiestruturados, organizando-os em bases de dados, esquemas e tabelas. Tem suporte total a T-SQL, incluindo a criação de procedimentos armazenados, visões e junções.

Casa de eventos

Use uma casa de eventos para gerir e analisar dados de eventos em tempo real e de grande volume. Suporta dados estruturados, semiestruturados e não estruturados, como logs e telemetria, organizando-os em bases de dados, esquemas e tabelas.

Banco de dados SQL no Fabric

Usa uma base de dados SQL no Fabric quando precisares de unificar cargas de trabalho transacionais e analíticas. Funciona no mesmo motor que o Azure SQL Database, oferece suporte completo a T-SQL e permite a integração com o ecossistema mais amplo do Fabric.

Bases de dados Azure, fontes de dados externas e bases de dados relacionais

Esta secção explica como trazer dados de bases de dados Azure e plataformas como Azure Databricks, bem como de plataformas não Microsoft como a Snowflake, para o Fabric.

Ingest

O Fabric fornece múltiplas abordagens para ingerir dados de bases de dados relacionais. Use espelhamento para replicar o seu património de dados existente em OneLake em tempo quase real, sem processos complexos de extração, transformação e carregamento (ETL). Para mais informações, consulte Fontes de dados de espelhamento suportadas.

Também pode usar pipelines do Data Factory para ingerir dados de uma vasta gama de bases de dados, tanto on-premises como na cloud. Para ingerir os dados, pode usar várias abordagens como uma atividade de cópia, um trabalho de cópia ou Dataflow Gen2. Estas opções também oferecem capacidades de orquestração, transformação e agendamento. Para mais informações, consulte Conectores Suportados.

Para a ingestão baseada em SQL, utilize capacidades T-SQL para carregar dados em escala a partir das suas casas de lago e armazéns existentes. Pode criar novas versões de tabelas que tenham dados agregados, subconjuntos filtrados ou resultados de consultas complexas.

Store

Use o espelhamento para criar uma réplica apenas de leitura da sua base de dados de origem e sincronize-a continuamente com o sistema de origem através de uma replicação quase em tempo real. O espelhamento armazena os dados no formato Delta Lake dentro do OneLake.

Também pode utilizar uma atividade de cópia de dados ou uma tarefa de cópia do pipeline do Data Factory para armazenar os dados copiados de bases de dados relacionais num data lake ou armazém de dados. A arquitetura OneLake utiliza o formato Delta Lake, que oferece flexibilidade para implementar lakehouses utilizando uma estrutura em medalhão ou um modelo de armazém que se alinhe com as necessidades da sua organização.

Process

Cada base de dados espelhada inclui um endpoint SQL gerado automaticamente para consultas. O endpoint de análise SQL apenas de leitura suporta o acesso através do SQL Server Management Studio, Open Database Connectivity (ODBC), qualquer ferramenta de consulta com a cadeia de ligação SQL, ou a extensão MSSQL com Visual Studio Code (VS Code). Execute agregações complexas usando T-SQL ou explore dados usando notebooks Apache Spark. As consultas entre bases de dados permitem aceder a dados de bases de dados espelhadas e combiná-las com outras fontes de dados Fabric, como casas de lago e armazéns. Os procedimentos armazenados automatizam a lógica SQL para transformações e agregações de dados, o que melhora a reutilização e centraliza a lógica para tarefas repetitivas.

O espelhamento cria um snapshot completo das tabelas selecionadas da base de dados de origem. Após a carga inicial, o Fabric utiliza a captura de dados de alterações (CDC) da base de dados de origem para acompanhar inserções, atualizações e eliminações. Replica continuamente estas alterações no OneLake com baixa latência e sincronização quase em tempo real. Podes criar atalhos para mesas espelhadas numa casa do lago e consultá-las através de cadernos Spark.

O Dataflow Gen2 limpa e molda dados analisados enquanto deteta inconsistências de esquema, nulos ou outliers. Depois de perfilar e transformar os dados, guarde os dados processados em tabelas do Data Warehouse.

Os cadernos Spark enriquecem os dados ao carregá-los de casas de lago ou armazéns. Treine ou carregue modelos de aprendizagem automática usando bibliotecas como scikit-learn, XGBoost ou SynapseML. Usa o MLflow para acompanhar experiências e registar modelos. Dados de pontuação com previsões em lote escaláveis e previsões em tempo real.

Serve

Uma base de dados espelhada gera um item de base de dados SQL espelhado e um endpoint de análise SQL que pode usar para executar consultas apenas de leitura. Veja os dados através da pré-visualização de dados ou explore diretamente no OneLake. O editor de consultas SQL permite-lhe criar consultas T-SQL contra dados no item espelhado da base de dados. Pode aceder a dados espelhados usando um atalho lakehouse e consultas Spark para processar os dados.

Normalmente, vais querer que estes dados estejam disponíveis no Power BI. Para isso, criar modelos semânticos para simplificar a análise de dados e relações empresariais. Os analistas de negócio utilizam relatórios e dashboards do Power BI para analisar dados e obter insights de negócio, utilizando o modo Direct Lake para um lakehouse ou o endpoint SQL para o Data Warehouse. Use o Data Activator para configurar alertas nos visuais do Power BI, monitorizar métricas que mudam frequentemente, definir condições de alerta e receber notificações por email ou Microsoft Teams.

A partilha externa de dados no Fabric permite que um utilizador num tenant Fabric (o fornecedor) partilhe dados com um utilizador noutro tenant Fabric (o consumidor). Esta funcionalidade apoia a colaboração entre organizações, mantendo os limites de governação e segurança. Os consumidores de dados acedem a dados apenas de leitura através de atalhos do OneLake nos seus próprios armazéns e armazéns de dados, bem como em bases de dados SQL e espelhadas. A API Fabric para GraphQL expõe dados de fontes de dados Fabric suportadas através de um único endpoint API flexível. Esta funcionalidade é ideal para construir aplicações modernas que requerem acesso eficiente e em tempo real a dados estruturados.

Os modelos de aprendizagem automática servem previsões em tempo real a partir de qualquer modelo registado, utilizando endpoints online de aprendizagem automática seguros e escaláveis que são configurados automaticamente. Para uma implementação em tempo real nativa de Fabric, estes endpoints são propriedades incorporadas na maioria dos modelos Fabric. Pode chamá-los a partir de outros motores Fabric ou aplicações externas para um consumo mais amplo e fiável. Um agente de dados Fabric possibilita uma interface conversacional com dados de um sistema de armazenamento de dados (lakehouse ou warehouse), traduzindo consultas em linguagem natural em consultas relevantes. O Copilot no Fabric transforma perguntas em linguagem natural em SQL, corrige erros, fornece explicações para consultas SQL e auxilia na conclusão do código.

Plataforma de dados baseada na cloud para Dataverse

Esta secção explica como transferir dados do Dataverse para o Fabric.

Ingest

O Dataverse Link to Fabric disponibiliza dados do Dynamics 365 e Dataverse quase em tempo real dentro do Fabric, sem necessidade de ETL ou cópia de dados. Com o Dataverse Link to Fabric, os engenheiros de dados podem consultar dados usando SQL, aplicar IA, combinar conjuntos de dados, reformular informação e construir resumos diretamente no Fabric.

Store

Quando usas o Dataverse Link to Fabric, o Dataverse cria uma casa de lago no OneLake que tem atalhos para tabelas Dataverse, sem necessidade de movimento físico de dados.

Process

Consulte a casa do lago gerada pelo Dataverse para explorar tabelas ligadas do seu ambiente Dataverse. Consulta o lakehouse gerado pelo Dataverse usando o endpoint SQL, explora dados usando cadernos Spark e acede aos dados através do SQL Server Management Studio ou do editor SQL. Referenciar dados do Dataverse noutras casas do lago usando atalhos para reutilizar os mesmos dados sem os copiar ou duplicar.

Enriqueça os dados usando Data Wrangler, uma ferramenta sem-código e com pouco código nos cadernos Fabric. Permite-lhe explorar, preparar e moldar dados para análise exploratória. As operações geram código no pandas ou no PySpark, e podes guardar o código no caderno como uma função reutilizável.

Serve

Os atalhos para as tabelas Dataverse criadas no OneLake suportam o formato Delta Lake. Pode preencher estes dados para um relatório Power BI a partir do conjunto de dados padrão que o Dataverse gera no espaço de trabalho do Fabric.

Também pode usar o Data Activator para configurar alertas nos visuais do Power BI, monitorizar métricas que mudam frequentemente, definir condições de alerta e receber notificações por email ou do Teams.

Fontes de dados semiestruturadas e não estruturadas

Esta secção descreve como ingerir dados semiestruturados e não estruturados no Fabric.

Ingest

Utilizar as pipelines do Data Factory para extrair dados de uma vasta gama de fontes semiestruturadas, tanto on-premises como na cloud. Para extrair os dados, podes usar várias abordagens como uma atividade de cópia, um trabalho de cópia, Dataflow Gen2, cadernos Spark ou carregamento de ficheiros em Lakehouse. Considere as seguintes fontes apoiadas:

  • Dados ingeridos de fontes baseadas em ficheiros que contêm ficheiros CSV ou JSON

  • Ficheiros XML de sistemas legados

  • Ficheiros de parquet a partir de contas de armazenamento

  • PDF, MP3, imagens, registos, documentos e outros ficheiros binários

  • APIs REST do Fabric como fonte de dados para o pipeline

Use a instrução COPY INTO para ingerir dados de uma conta de armazenamento externa para cargas de trabalho SQL de alto rendimento. A declaração suporta formatos de ficheiro Parquet e CSV. Crie atalhos no OneLake para fontes externas, incluindo Azure Data Lake Storage, contas de armazenamento Amazon Simple Storage Service (AWS S3), contas Google Cloud Storage e outras opções de armazenamento externo suportadas para permitir acesso sem cópias e evitar duplicação. De forma programática ou manualmente, faça upload de ficheiros para a pasta do lakehouse. Ativar pipelines quando chegam novos ficheiros usando orquestração baseada em eventos em Fabric.

Store

Organize os seus dados no data lake unificado do Fabric OneLake. Siga as melhores práticas para que camadas criar, que estruturas de pastas usar em cada camada e que formatos de ficheiro usar para cada cenário de análise. Armazene dados não estruturados na zona Bronze para manter os dados não processados no seu formato original. Use uma casa de eventos para armazenar telemetria, registos ou dados de séries temporais.

Process

Os cadernos Spark analisam e transformam dados semiestruturados. Por exemplo, pode achatar estruturas JSON aninhadas, converter XML para formato tabular ou extrair campos-chave de ficheiros de log. Os cadernos Spark também extraem conteúdo e transformam dados não estruturados através dos Spark DataFrames.

A ingestão do T-SQL carrega dados de tabelas existentes em casas de lago ou armazéns em Fabric. O Dataflow Gen2 limpa e molda dados analisados enquanto deteta inconsistências de esquema, nulos ou outliers. Depois de perfilares e transformares os dados, guarda-os em tabelas lakehouse. Atalhos internos no Fabric referenciam dados armazenados numa casa de lago.

Os cadernos Spark enriquecem os dados à medida que os processas. Carregue dados a partir de casas de lago ou armazéns, depois treine ou carregue modelos de aprendizagem automática usando bibliotecas como scikit-learn, XGBoost ou SynapseML. O MLflow acompanha experiências e regista modelos. Pontue dados usando previsões em lote escaláveis ou previsões em tempo real.

Serve

O T-SQL consulta as tabelas lakehouse através do endpoint de análise Fabric SQL. O endpoint de análise SQL suporta modelos semânticos e relatórios Power BI. O modo Direct Lake oferece análises de alto desempenho. Também pode configurar alertas nos visuais do Power BI usando o Data Activator para monitorizar métricas que mudam frequentemente, definir condições de alerta e receber notificações por email ou Teams.

A partilha externa de dados no Fabric permite que um utilizador num tenant Fabric (o fornecedor) partilhe dados com um utilizador noutro tenant Fabric (o consumidor). Esta funcionalidade apoia a colaboração entre organizações, mantendo os limites de governação e segurança. Os consumidores de dados acedem a dados apenas de leitura usando atalhos OneLake nas suas próprias casas de lago.

A API Fabric para GraphQL expõe dados de fontes de dados Fabric suportadas através de um único endpoint API flexível. Esta abordagem é ideal para construir aplicações modernas que necessitam de acesso eficiente e em tempo real a dados estruturados.

Fornecer previsões em tempo real de qualquer modelo registado de aprendizagem automática utilizando endpoints online de aprendizagem automática seguros e escaláveis, configurados automaticamente. Para a implementação nativa do Fabric em tempo real, use esses endpoints como as propriedades incorporadas da maioria dos modelos Fabric. Chamem-nos a partir de outros motores Fabric ou aplicações externas para um consumo fiável e amplo. Crie um modelo semântico a partir de dados de previsão e visualize os resultados num relatório Power BI.

Um agente de dados Fabric é uma interface conversacional personalizável alimentada por IA que traduz consultas em linguagem natural em insights acionáveis para os seus dados OneLake. O Copilot simplifica as tarefas de análise e visualização de dados. Faça perguntas sobre tabelas lakehouse, pandas e Spark DataFrames diretamente nos notebooks. O Copilot responde com explicações em linguagem natural. Os utilizadores empresariais podem usar o painel do Copilot para colocar questões sobre o conteúdo dos relatórios e resumir rapidamente os principais insights. Também podem usar a secção do Copilot para descobrir informações a que já têm acesso.

Streaming

Esta secção explica como trazer dados em streaming de séries temporais de grande volume para o Fabric.

Ingest

Use Real-Time Intelligence para recolher dados para ingestão em tempo real através de um fluxo de eventos. Obtenha os dados de uma vasta gama de fontes de dados como dispositivos da Internet das Coisas (IoT), aplicações, hubs de eventos externos e eventos Fabric como eventos de itens de espaço de trabalho, eventos OneLake e eventos de tarefas. Se precisares de referenciar uma base de dados Kusto Query Language (KQL) de origem, como uma base de dados existente do Azure Data Explorer no Real-Time Intelligence, podes criar um atalho para aceder aos dados sem os duplicar ou voltar a ingerir.

Store

O Eventstream suporta o encaminhamento de dados para diferentes destinos. Armazene grandes volumes de dados numa casa de eventos, que é uma solução de armazenamento de alto desempenho, otimizada e escalável. Pode criar uma base de dados KQL dentro de uma casa de eventos, que é uma base de dados especializada desenhada para análise de dados orientada por eventos, usando KQL.

Process

Use um conjunto de consultas KQL para escrever, executar e gerir consultas KQL em várias fontes de dados em tempo real. Um conjunto de consultas KQL é uma ferramenta central na experiência Real-Time Intelligence. Permite aos utilizadores explorar, analisar e visualizar dados de streaming ou séries temporais. Pode usar T-SQL no Real-Time Intelligence para consultar dados em streaming armazenados em bases de dados KQL. O KQL é a principal linguagem para análises em tempo real, mas o Fabric também suporta T-SQL para utilizadores familiarizados com análises baseadas em SQL.

Para processamento cross-engine, ative a disponibilidade do OneLake para criar uma cópia lógica dos dados da base de dados KQL. Podes consultar os dados no formato Delta Lake a partir de outros motores Fabric como o modo Direct Lake no Power BI, armazéns, casas de lago e cadernos.

Serve

Os analistas de negócio podem criar um painel de Real-Time Intelligence, que é uma coleção de tiles gerados por consultas KQL. Podes organizar tiles em páginas e ligá-las a fontes de dados. O painel atualiza-se automaticamente, o que proporciona visibilidade quase instantânea dos dados à medida que estes fluem pelo sistema. Também pode adicionar o Data Activator a um painel de controlo para monitorizar métricas que mudam frequentemente, definir condições de alerta e receber notificações por email ou Teams. Crie um relatório Power BI para gerar relatórios a partir de modelos semânticos construídos a partir da base de dados KQL como fonte.

A partilha externa de dados do Fabric permite que um utilizador num tenant Fabric (o fornecedor) partilhe dados com um utilizador noutro tenant Fabric (o consumidor). Apoia a colaboração entre organizações, mantendo as fronteiras de governação e segurança. Os consumidores de dados acedem a dados de leitura apenas através de atalhos OneLake nas suas próprias bases de dados KQL.

Um agente de dados Fabric pode trabalhar com bases de dados KQL para permitir que os utilizadores façam perguntas, o que torna os dados em tempo real mais fáceis de usar para utilizadores não técnicos. O Copilot pode traduzir consultas em linguagem natural para KQL que podes executar.

Components

Esta arquitetura utiliza os seguintes serviços Fabric e Azure:

  • O Copilot no Fabric é um assistente de IA generativa integrado na plataforma Fabric. Nesta arquitetura, ajuda a construir pipelines de dados escaláveis, criar código Spark para transformações de dados, gerar SQL otimizado para Data Warehouse, escrever consultas KQL para Real-Time Intelligence e construir modelos semânticos e medidas de Expressões de Análise de Dados (DAX) para relatórios.

  • Um agente de dados Fabric é uma funcionalidade impulsionada por IA que ajuda os utilizadores a interagir com dados organizacionais utilizando linguagem natural. Nesta arquitetura, os agentes de dados funcionam como uma interface conversacional para traduzir perguntas em linguagem natural em consultas estruturadas, como SQL, DAX ou KQL.

  • O Microsoft Purview é uma plataforma unificada para governança, segurança e conformidade de dados. Nesta arquitetura, o Microsoft Purview governa todo o seu património e linhagem de dados, desde a fonte de dados até ao relatório Power BI.

  • A partilha externa de dados do Fabric é uma funcionalidade que permite a colaboração segura entre inquilinos, permitindo que os utilizadores partilhem dados do seu ambiente Fabric com utilizadores noutro tenant Fabric. Nesta arquitetura, as organizações podem colaborar entre os limites dos inquilinos sem duplicar dados.

  • A API Fabric para GraphQL é uma funcionalidade que permite aos programadores expor e interagir com dados utilizando a linguagem de consulta GraphQL. Nesta arquitetura, permite aos utilizadores desenvolver aplicações de dados.

  • Real-Time Intelligence é uma solução analítica orientada por eventos, concebida para processar, analisar e agir sobre dados em fluxo. Nesta arquitetura, processa dados em streaming de grande volume e fornece dashboards em tempo real compostos por tiles que visualizam as consultas subjacentes.

  • O Power BI é uma plataforma de business intelligence (BI) e visualização de dados. Nesta arquitetura, liga-se ao OneLake para criar dashboards e relatórios.

  • A Microsoft Foundry é uma plataforma unificada como serviço (PaaS) para construir, implementar e gerir aplicações e agentes de IA em escala empresarial. Nesta arquitetura, os agentes Foundry enriquecem e permitem sistemas de múltiplos agentes, e os agentes de dados Fabric atuam como especialistas em domínio juntamente com outros agentes.

  • O Azure Machine Learning é um serviço cloud de nível empresarial para gerir todo o ciclo de vida do machine learning, desde a preparação e experimentação de dados até ao treino, implementação e monitorização de modelos. Nesta arquitetura, pode permitir que os utilizadores executem modelos de aprendizagem automática usando endpoints batch. Os atalhos OneLake permitem que Machine Learning e Fabric partilhem a mesma instância subjacente de Data Lake Storage, permitindo que ambos os serviços liam e escrevam sem duplicar dados.

  • A Microsoft Cost Management é um serviço que o ajuda a acompanhar, analisar e otimizar as suas faturas de recursos do Microsoft Azure. Nesta arquitetura, a sua análise de custos e fatura na Gestão de Custos exibem múltiplos medidores associados ao seu recurso de capacidade Fabric.

  • O Azure Key Vault é um serviço baseado na nuvem para armazenar e gerir com segurança informações confidenciais, como segredos, chaves e certificados. Nesta arquitetura, gerencia credenciais usadas em ligações e gateways Fabric.

  • A Política do Azure é uma ferramenta de governança que impõe regras de governança nos recursos do Azure. Nesta arquitetura, assegura conformidade, governação de dados e controlo de custos em toda a plataforma de dados Fabric.

  • O Microsoft Entra ID é uma solução de gestão de identidade e acessos baseada na cloud que garante acesso seguro para utilizadores, dispositivos e cargas de trabalho. Nesta arquitetura, permite aos utilizadores iniciar sessão no Fabric usando as suas credenciais Microsoft Entra, enquanto aplica controlos de acesso Zero Trust.

  • O Azure DevOps é um conjunto de ferramentas e serviços de desenvolvimento que a Microsoft disponibiliza para suportar todo o ciclo de vida do desenvolvimento de software. Nesta arquitetura, o Azure DevOps integra-se com os espaços de trabalho do Fabric para gerir o ciclo de vida e fornecer controlo de origem.

  • O GitHub é uma plataforma baseada na cloud para controlo de versões e colaboração que permite aos programadores armazenar, gerir e acompanhar alterações ao seu código. Nesta arquitetura, o GitHub integra-se com os espaços de trabalho do Fabric para suportar a gestão do ciclo de vida e o controlo de versão.

  • A funcionalidade de monitorização do espaço de trabalho no Fabric permite-lhe recolher, analisar e visualizar registos e métricas de itens do Fabric dentro de um espaço de trabalho. Nesta arquitetura, ajuda a realizar diagnósticos de consultas no seu ambiente Fabric, identificar problemas, construir painéis de monitorização personalizados e definir alertas.

Alternatives

O Fabric fornece um conjunto de ferramentas para gerir cargas de trabalho de dados e análises de forma eficiente. Com tantas opções disponíveis, escolher a ferramenta certa pode ser um desafio. Estes guias de decisão fornecem um roteiro para o ajudar a avaliar as escolhas e determinar a estratégia mais eficaz.

Detalhes do cenário

Este cenário de exemplo mostra como o Fabric facilita às empresas a construção de uma plataforma de dados unificada e moderna que simplifica a integração, acelera os insights e reduz a complexidade operacional. Ajuda as organizações a ultrapassar desafios comuns de dados, promovendo escalabilidade, governação e eficiência de custos.

Potenciais casos de utilização

  • Modernize a plataforma de dados empresarial substituindo ferramentas fragmentadas por uma solução unificada.

  • Estabeleça uma arquitetura de lago medallião usando casas de lago Fabric, com uma camada de Bronze para a ingestão de dados brutos, uma camada de Prata para dados limpos e transformados, e uma camada de Ouro para dados prontos para negócios usados em análise e IA. Crie armazéns como soluções específicas de área ou domínio, concebidas para tópicos que requerem análises personalizadas.

  • Integre fontes de dados relacionais com conjuntos de dados não estruturados utilizando motores de computação Fabric.

  • Fornecer análises operacionais em tempo real para monitorizar e agir sobre dados em streaming com Inteligência em Tempo Real.

  • Gerar insights de clientes potenciados por IA para enriquecer dados e aumentar o valor do negócio.

  • Fornecer relatórios empresariais e BI de autoatendimento através de modelação semântica e ferramentas avançadas de visualização.

  • Permitir a partilha de dados entre locatários através de atalhos OneLake e partilha externa de dados.

  • Integre agentes de dados Fabric com Azure AI Foundry ou Microsoft Copilot Studio para construir soluções de IA inteligentes, conversacionais e conscientes do contexto para utilizadores empresariais e aplicações.

Recommendations

Considere as seguintes recomendações.

Descubra e governe

A governança de dados é um desafio comum em ambientes corporativos de grande porte. Os analistas de negócio precisam de descobrir e compreender os ativos de dados para resolver problemas de negócio, enquanto os diretores de dados procuram informações sobre a privacidade e segurança dos dados empresariais.

Microsoft Purview

A governação de dados Microsoft Purview consiste em duas soluções. O Catálogo Unificado e o Mapa de Dados proporcionam uma experiência de governação moderna ao consolidar metadados de diversos catálogos e fontes. Esta integração permite visibilidade, reforça a confiança nos dados e apoia a inovação responsável em toda a empresa.

Mantenha termos de glossário com a terminologia empresarial específica que os utilizadores necessitam para compreender a semântica do conjunto de dados e a sua utilização em toda a organização. Registar as fontes de dados e organizá-las em coleções, que também servem como limites de segurança para os metadados. Configure varreduras regulares para catalogar e atualizar automaticamente os metadados relevantes sobre os ativos de dados organizacionais. Quando um tenant Fabric é digitalizado, os metadados e a linhagem dos ativos Fabric, incluindo o Power BI, são automaticamente incorporados no catálogo unificado de dados do Microsoft Purview. Atribuir automaticamente classificações de dados e etiquetas de sensibilidade aos ativos de dados com base em regras pré-configuradas ou personalizadas durante as varreduras.

Use a gestão de saúde do Catálogo Unificado para monitorizar a saúde geral do panorama de dados e proteger a organização contra riscos de segurança e privacidade. Um hub Microsoft Purview integrado no Fabric fornece informações sobre inventário de dados, etiquetas de sensibilidade e endossos. Serve como uma porta de entrada para se ligar a capacidades mais amplas do Microsoft Purview.

Serviços da plataforma

O Fabric suporta vários padrões de implementação que ajudam as organizações a alinhar a sua arquitetura de dados com as necessidades do negócio, modelos de governação e requisitos de desempenho. Estes padrões são definidos nos níveis de locatário, capacidade, área de trabalho e item de implementação. Cada padrão oferece diferentes compensações em termos de escalabilidade, isolamento, custo e complexidade operacional.

O design incorpora vários serviços fundamentais do Azure. O Microsoft Entra ID fornece serviços de identidade, login único (SSO) e autenticação multifator em cargas de trabalho Azure. A Gestão de Custos fornece governação financeira para as suas cargas de trabalho Azure. O Key Vault gere credenciais e certificados de forma segura. Quando configura um cofre de chaves no Fabric, pode obter credenciais e certificados do serviço do Cofre de Chaves. Use estas credenciais para aceder a repositórios de dados que não suportam autenticação integrada, como fontes locais ou externas.

O Azure Monitor recolhe, analisa e atua na telemetria dos recursos do Azure para identificar proativamente problemas e maximizar o desempenho e a fiabilidade. O Azure DevOps e o GitHub Enterprise implementam operações de desenvolvimento (DevOps) para impor automação e conformidade nos pipelines de desenvolvimento e implementação de cargas de trabalho em Fabric. Esta abordagem permite controlo de versões, colaboração e gestão do ciclo de vida. A Política Azure aplica normas organizacionais e governação para garantir consistência de recursos, conformidade regulatória, segurança, controlo de custos e gestão.

Considerations

Essas considerações implementam os pilares do Azure Well-Architected Framework, que é um conjunto de princípios orientadores que você pode usar para melhorar a qualidade de uma carga de trabalho. Para obter mais informações, consulte Well-Architected Framework.

Otimização de Custos

A Otimização de Custos concentra-se em formas de reduzir despesas desnecessárias e melhorar a eficiência operacional. Para obter mais informações, consulte Lista de verificação de revisão de design para otimização de custos.

Para estimar custos, consulte Preços. O escalão ideal de preços e o custo total de cada serviço na arquitetura dependem da quantidade de dados processados e armazenados e do nível de desempenho esperado. Utilize o seguinte guia para explorar as melhores estratégias de otimização de custos para a Fabric.

  • A capacidade do Fabric é um pool partilhado que alimenta todas as capacidades do Fabric, desde a engenharia de dados e armazenamento de dados até à modelação de dados, BI e experiências de IA. A Microsoft cobra por hora pelas unidades de capacidade (CUs) com opções de pagamento conforme o consumo ou reservas. O Pay-as-you-go oferece flexibilidade para pagar apenas pelas horas em que utiliza a capacidade da infraestrutura. Pode pausar as capacidades quando não estiverem a ser utilizadas para gerir custos, sem necessidade de um compromisso mensal ou anual. As reservas proporcionam uma faturação previsível e normalmente proporcionam poupanças para cargas de trabalho estáveis. O armazenamento OneLake fornece uma única cópia dos dados em todos os motores analíticos sem necessidade de mover ou duplicar dados.

  • A ferramenta estimativa de capacidade Fabric ajuda a estimar as necessidades de capacidade e a determinar os requisitos adequados de SKU e armazenamento com base nas características da carga de trabalho. Monitorize a utilização e o consumo utilizando a aplicação Fabric Capacity Metrics para mostrar a utilização da capacidade. A Gestão de Custos acompanha a utilização e define alertas orçamentais. Para mais informações, consulte Compreender a sua fatura Azure para uma capacidade Fabric. Os guias de resolução de problemas de capacidade do Fabric fornecem recursos para monitorizar e otimizar proativamente a utilização da capacidade.

  • A aplicação Fabric Chargeback (pré-visualização) ajuda as organizações a acompanhar, analisar e alocar os custos de utilização de capacidade entre unidades de negócio, utilizadores e cargas de trabalho que utilizam o Fabric. Suporta modelos de charge back e showback para permitir uma distribuição de custos transparente e justa com base no consumo real. O preço do Microsoft Purview depende do número de ativos de dados no catálogo e do poder de processamento necessário para os digitalizar.

Excelência Operacional

A Excelência Operacional abrange os processos operacionais que implantam um aplicativo e o mantêm em execução na produção. Para obter mais informações, consulte Lista de verificação de revisão de design para excelência operacional.

  • Adote uma metodologia consistente de infraestrutura como código (IaC) para provisionar capacidades do Fabric usando Bicep, modelos Azure Resource Manager (modelos ARM) e Terraform. Integrar espaços de trabalho Fabric com Git para a gestão do ciclo de vida de aplicações Fabric e utilizar pipelines de implementação para integração contínua e entrega contínua (CI/CD).

  • Use o hub de monitorização para monitorizar as atividades do Fabric. O espaço de trabalho de monitorização administrativa fornece um espaço dedicado para os administradores do Fabric supervisionarem e gerirem as operações dos inquilinos. Fornece relatórios incorporados para visão geral da atividade, detalhes da atividade e governação, permitindo aos administradores monitorizar eficazmente as cargas de trabalho e a utilização. Envie mensagens no Teams em grupos de chat ou canais para notificar o estado do pipeline. Para notificações por email, utilize a atividade Outlook do Office 365.

  • Aplicar políticas de governação através do Microsoft Purview. Agende revisões regulares de Well-Architected e sprints de otimização. Para mais informações sobre as novas funcionalidades do Fabric e quando as pode esperar, consulte o roadmap do Fabric. Implementa uma arquitetura semelhante em ambientes de pré-produção onde desenvolves e testes a tua plataforma. Considere os requisitos específicos da sua plataforma e as capacidades de cada serviço para criar um ambiente de pré-produção rentável.

Contributors

A Microsoft mantém este artigo. Os seguintes colaboradores escreveram este artigo.

Principais autores:

Para ver perfis não públicos do LinkedIn, faça login no LinkedIn.

Próximos passos