Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
La solución de este artículo combina una variedad de servicios de Microsoft que ingieren, almacenan, procesan, enriquecen y proporcionan datos e información de diferentes orígenes. Estos orígenes incluyen formatos estructurados, semiestructurados, no estructurados y de streaming.
Architecture
Amazon Simple Storage Service (AWS S3), Amazon Web Services (AWS), AWS Kinesis, Google Cloud Storage, Google Cloud, Google Cloud Pub/Sub y Snowflake son marcas comerciales registradas o marcas comerciales de sus respectivos propietarios. Apache y Apache® Kafka son marcas comerciales registradas o marcas comerciales de Apache Software Foundation en Los Estados Unidos o en otros países. El uso de estas marcas no implica ninguna aprobación por parte de los respectivos propietarios de marcas comerciales.
Descargue un archivo de Visio de esta arquitectura.
Flujo de datos
En las secciones siguientes se describe cómo OneLake actúa como el hogar de los datos en varias fases del ciclo de vida de los datos. OneLake es el lago de datos unificado de nivel empresarial integrado en Microsoft Fabric que actúa como una capa de almacenamiento centralizada para todas las cargas de trabajo de datos, incluido Fabric Data Engineer, Fabric Data Factory, Fabric Data Science, Fabric Data Warehouse, Fabric Real-Time Intelligence, Fabric Databases y Power BI.
Lakehouse
Utilice un lakehouse cuando necesite una plataforma unificada, escalable y flexible. Es ideal para administrar datos estructurados, semiestructurados y no estructurados para admitir análisis, aprendizaje automático e informes. Organice los datos con la arquitectura de medallion y use las capas Bronze (raw), Silver (validado) y Gold (listo para la empresa) en carpetas y archivos, bases de datos y tablas.
Almacén
Use Data Warehouse cuando necesite una solución de análisis basada en SQL de alto rendimiento y totalmente administrada para administrar datos estructurados y semiestructurados mediante la organización en bases de datos, esquemas y tablas. Tiene compatibilidad completa con T-SQL, incluida la creación de procedimientos almacenados, vistas y combinaciones.
Centro de eventos
Use un centro de eventos para administrar y analizar datos de eventos en tiempo real y de gran volumen. Admite datos estructurados, semiestructurados y no estructurados, como registros y telemetría, al organizarlos en bases de datos, esquemas y tablas.
Base de datos SQL en Fabric
Use SQL Database en Fabric cuando necesite unificar las cargas de trabajo transaccionales y analíticas. Se ejecuta en el mismo motor que Azure SQL Database, proporciona compatibilidad completa con T-SQL y permite la integración con el ecosistema de Fabric más amplio.
Bases de datos de Azure, orígenes de datos externos y bases de datos relacionales
En esta sección se explica cómo traer datos de bases de datos y plataformas de Azure como Azure Databricks, así como plataformas que no son de Microsoft, como Snowflake, a Fabric.
Ingest
Fabric proporciona varios enfoques para ingerir datos de bases de datos relacionales. Utiliza espejado para replicar tu infraestructura de datos existente en OneLake casi en tiempo real sin procesos complejos de extracción, transformación y carga (ETL). Para obtener más información, consulte Fuentes de datos de reflejo compatibles.
También puede usar pipelines de Data Factory para ingerir datos de una amplia variedad de bases de datos, tanto locales como en la nube. Para ingerir los datos, puede usar varios enfoques como una actividad de copia, un trabajo de copia o Dataflow Gen2. Estas opciones también proporcionan funcionalidades de orquestación, transformación y programación. Para más información, consulte Conectores admitidos.
Para la ingesta basada en SQL, utilice las capacidades de T-SQL para cargar datos a escala desde sus lakehouses y almacenes existentes. Puede crear nuevas versiones de tabla que tengan datos agregados, subconjuntos filtrados o resultados de consultas complejas.
Store
Use reflejo para crear una réplica de solo lectura de la base de datos de origen y sincronizarla continuamente mediante la replicación casi en tiempo real con el sistema de origen. El reflejo almacena los datos en el formato Delta Lake en OneLake.
También puede utilizar una actividad de copia de datos o un trabajo de copia del pipeline de Data Factory para etapar los datos copiados de bases de datos relacionales en un lakehouse o un almacén de datos. La arquitectura de OneLake utiliza el formato Delta Lake, que proporciona flexibilidad para implementar "lakehouses" mediante un marco de medallón o utilizar un modelo de almacenamiento que se alinee con las necesidades de su organización.
Process
Cada base de datos reflejada incluye un punto de conexión SQL generado automáticamente para realizar consultas. El punto de conexión de análisis de SQL de solo lectura admite el acceso mediante SQL Server Management Studio, Open Database Connectivity (ODBC), cualquier herramienta de consulta con la cadena de conexión SQL, o la extensión MSSQL con Visual Studio Code (VS Code). Ejecute agregaciones complejas mediante T-SQL o explore datos mediante cuadernos de Apache Spark. Las consultas entre bases de datos permiten acceder a datos de bases de datos reflejadas y combinarlos con otros orígenes de datos de Fabric, como lakehouses y almacenes. Los procedimientos almacenados automatizan la lógica de SQL para las transformaciones y agregaciones de datos, lo que mejora la reutilización y centraliza la lógica para tareas repetitivas.
El reflejo crea una instantánea completa de las tablas seleccionadas desde la base de datos de origen. Después de la carga inicial, Fabric usa la captura de datos modificados (CDC) de la base de datos de origen para realizar un seguimiento de las inserciones, actualizaciones y eliminaciones de la base de datos de origen. Replica continuamente estos cambios en OneLake con baja latencia y sincronización casi en tiempo real. Puede crear accesos directos para tablas reflejadas en un lakehouse y consultarlas mediante cuadernos de Spark.
Dataflow Gen2 limpia y da forma a los datos analizados al detectar incoherencias de esquema, valores NULL o valores atípicos. Después de generar perfiles y transformar los datos, guarde los datos procesados en tablas de Almacenamiento de datos.
Los cuadernos de Spark enriquecen los datos al cargarlos desde lakehouses o almacenes de datos. Entrene o cargue modelos de aprendizaje automático mediante bibliotecas como scikit-learn, XGBoost o SynapseML. Use MLflow para realizar un seguimiento de los experimentos y registrar modelos. Puntuar datos con predicciones por lotes escalables y predicciones en tiempo real.
Serve
Una base de datos reflejada genera un elemento de base de datos SQL reflejado y un punto de conexión de SQL Analytics que puede usar para ejecutar consultas de solo lectura. Vea los datos a través de la vista previa de datos o explore directamente en OneLake. El editor de consultas SQL le permite crear consultas T-SQL en los datos del elemento de base de datos reflejada. Puede acceder a los datos reflejados utilizando un atajo de lakehouse y consultas de Spark para procesar los datos.
Normalmente, querrá que estos datos estén disponibles en Power BI. Para ello, cree modelos semánticos para simplificar el análisis de los datos empresariales y las relaciones. Los analistas de negocios usan informes y paneles de Power BI para analizar datos y derivar información empresarial mediante el modo Direct Lake para un lakehouse o el endpoint SQL para Data Warehouse. Use Data Activator para configurar alertas en objetos visuales de Power BI para supervisar las métricas que cambian con frecuencia, definir condiciones de alerta y recibir notificaciones por correo electrónico o Microsoft Teams.
El uso compartido de datos externos en Fabric permite a un usuario de un inquilino de Fabric (el proveedor) compartir datos con un usuario de otro inquilino de Fabric (el consumidor). Esta característica admite la colaboración entre organizaciones al tiempo que mantiene los límites de gobernanza y seguridad. Los consumidores de datos acceden a los datos de solo lectura a través de los accesos directos de OneLake en sus propios lakehouses y almacenes de datos, así como en bases de datos SQL y replicadas. La API de Fabric para GraphQL expone datos de orígenes de datos compatibles con Fabric a través de un punto de conexión de API único y flexible. Esta característica es ideal para crear aplicaciones modernas que requieren acceso eficaz y en tiempo real a datos estructurados.
Los modelos de Machine Learning sirven predicciones en tiempo real desde cualquier modelo de aprendizaje automático registrado mediante puntos de conexión en línea de aprendizaje automático seguros y escalables que se configuran automáticamente. Para una implementación en tiempo real nativa de Fabric, estos puntos de conexión son propiedades integradas de la mayoría de los modelos de Fabric. Puede llamarlos desde otros motores de Fabric o aplicaciones externas para un uso más amplio y confiable. Un agente de datos de Fabric permite una interfaz conversacional con datos de un lakehouse o un almacén de datos mediante la traducción de consultas de lenguaje natural en consultas relevantes. Copilot en Fabric transforma preguntas de lenguaje natural en SQL, corrige errores, proporciona explicaciones para las consultas SQL y ayuda con la finalización del código.
Plataforma de datos basada en la nube para Dataverse
En esta sección se explica cómo traer datos de Dataverse a Fabric.
Ingest
Dataverse Link to Fabric hace que los datos de Dynamics 365 y Dataverse estén disponibles casi en tiempo real en Fabric, sin necesidad de copiar datos o ETL. Con Dataverse Link to Fabric, los ingenieros de datos pueden consultar datos mediante SQL, aplicar inteligencia artificial, combinar conjuntos de datos, volver a crear información y compilar resúmenes directamente en Fabric.
Store
Cuando se usa Dataverse Link to Fabric, Dataverse crea un lakehouse en OneLake que tiene accesos directos a las tablas de Dataverse, sin requerir la transferencia de datos físicos.
Process
Consulte el lakehouse generado por Dataverse para explorar las tablas vinculadas desde su entorno de Dataverse. Consulte el lago generado por Dataverse usando el punto de conexión SQL, explore los datos con cuadernos de Spark y acceda a los datos mediante SQL Server Management Studio o el editor SQL. Añada datos de Dataverse en otros almacenes de datos en el lago mediante métodos abreviados para reutilizar los mismos datos sin necesidad de copiarlos ni duplicarlos.
Enriquecer datos mediante Data Wrangler, una herramienta de código bajo y sin código en cuadernos de Fabric. Permite explorar, preparar y dar forma a los datos para el análisis exploratorio. Las operaciones generan código en Pandas o PySpark, y puede guardar el código en el cuaderno como una función reutilizable.
Serve
Los accesos directos a las tablas de Dataverse creadas en OneLake admiten el formato Delta Lake. Puede rellenar estos datos en un informe de Power BI desde el conjunto de datos predeterminado que Dataverse genera en el área de trabajo de Fabric.
También puede usar Data Activator para configurar alertas en objetos visuales de Power BI, supervisar las métricas que cambian con frecuencia, definir condiciones de alerta y recibir notificaciones por correo electrónico o Teams.
Orígenes de datos semiestructurados y no estructurados
En esta sección se describe cómo ingerir datos semiestructurados y no estructurados en Fabric.
Ingest
Use canalizaciones de Data Factory para extraer datos de una amplia gama de orígenes semiestructurados locales y en la nube. Para extraer los datos, puede usar varios enfoques como una actividad de copia, un trabajo de copia, Dataflow Gen2, cuadernos de Spark o carga de archivos de Lakehouse. Tenga en cuenta los siguientes orígenes compatibles:
Datos importados de fuentes basadas en archivos que contienen archivos CSV o JSON
Archivos XML de sistemas heredados
Archivos Parquet de cuentas de almacenamiento
PDF, MP3, imágenes, registros, documentos y otros archivos binarios
API REST de Fabric como origen de datos para la canalización
Use la instrucción COPY INTO para ingerir datos de una cuenta de almacenamiento externa para cargas de trabajo de SQL de alto rendimiento. La declaración admite los formatos de archivo Parquet y CSV. Cree accesos directos en OneLake a orígenes externos, como Azure Data Lake Storage, cuentas de almacenamiento de Amazon Simple Storage (AWS S3), cuentas de Almacenamiento en la nube de Google y otras opciones de almacenamiento externas compatibles para habilitar el acceso sin copia y evitar la duplicación. Mediante programación o manualmente, cargue archivos en la carpeta lakehouse. Desencadene canalizaciones cuando lleguen nuevos archivos mediante la orquestación basada en eventos de Fabric.
Store
Organiza tus datos en el lago de datos unificado Fabric OneLake. Siga los procedimientos recomendados para qué capas se van a crear, qué estructuras de carpetas usar en cada capa y qué formatos de archivo se usarán para cada escenario de análisis. Almacene datos no estructurados en la zona Bronze para mantener los datos sin procesar en su formato original. Use un centro de eventos para almacenar datos de telemetría, registros o series temporales.
Process
Los cuadernos de Spark analizan y transforman datos semiestructurados. Por ejemplo, puede aplanar estructuras JSON anidadas, convertir XML a formato tabular o extraer campos de clave de los archivos de registro. Los cuadernos de Spark también extraen contenido y transforman datos no estructurados a través de dataframes de Spark.
La ingesta T-SQL carga datos de tablas existentes en lakehouses o almacenes de Fabric. Dataflow Gen2 limpia y da forma a los datos analizados mientras detecta incoherencias de esquema, valores NULL o valores atípicos. Después de generar perfiles y transformar los datos, guárdelos en tablas de lakehouse. Atajos internos en los datos de referencia de Fabric almacenados en un Lakehouse.
Los cuadernos de Spark enriquecen los datos a medida que los procesa. Cargue datos desde lagos de datos o almacenes de datos, luego entrene o cargue modelos de aprendizaje automático utilizando bibliotecas como scikit-learn, XGBoost o SynapseML. MLflow realiza un seguimiento de los experimentos y registra los modelos. Evaluar datos utilizando predicciones por lotes escalables o predicciones en tiempo real.
Serve
T-SQL consulta las tablas de lakehouse a través del endpoint de análisis SQL de Fabric. El punto de conexión de SQL Analytics admite modelos semánticos e informes de Power BI. El modo Direct Lake ofrece análisis de alto rendimiento. También puede configurar alertas en objetos visuales de Power BI mediante El activador de datos para supervisar las métricas que cambian con frecuencia, definir condiciones de alerta y recibir notificaciones por correo electrónico o Teams.
El uso compartido de datos externos en Fabric permite a un usuario de un inquilino de Fabric (el proveedor) compartir datos con un usuario de otro inquilino de Fabric (el consumidor). Esta característica admite la colaboración entre organizaciones mientras mantiene los límites de gobernanza y seguridad. Los consumidores de datos acceden a los datos de solo lectura mediante accesos directos de OneLake en sus propios lakehouses.
La API de Fabric para GraphQL expone datos de fuentes de datos compatibles con Fabric a través de un único y flexible punto de conexión de API. Este enfoque es ideal para crear aplicaciones modernas que necesitan acceso eficaz y en tiempo real a datos estructurados.
Sirva predicciones en tiempo real desde cualquier modelo de aprendizaje automático registrado mediante puntos de conexión en línea de aprendizaje automático seguros y escalables que se configuran automáticamente. Para la implementación en tiempo real nativa de Fabric, use estos puntos de conexión como propiedades integradas de la mayoría de los modelos de Fabric. Llámalos desde otros motores de Fabric o aplicaciones externas para un uso fiable y generalizado. Cree un modelo semántico a partir de datos de predicción y visualice los resultados en un informe de Power BI.
Un agente de datos de Fabric es una interfaz conversacional personalizable con tecnología de inteligencia artificial que convierte las consultas de lenguaje natural en información procesable para los datos de OneLake. Copilot simplifica las tareas de visualización y análisis de datos. Formule preguntas acerca de tablas de lakehouse, pandas y DataFrames de Spark directamente dentro de los cuadernos de notas. Copilot responde con explicaciones de lenguaje natural. Los usuarios empresariales pueden usar el panel Copilot para formular preguntas sobre el contenido del informe y resumir rápidamente información clave. También pueden usar la sección Copilot para detectar información a la que ya tienen acceso.
Streaming
En esta sección se explica cómo incorporar datos de streaming de series temporales de gran volumen en Fabric.
Ingest
Utilizar inteligencia en tiempo real para recopilar datos y permitir su ingesta de manera inmediata mediante una secuencia de eventos. Obtenga los datos de una amplia gama de orígenes de datos, como dispositivos de Internet de las cosas (IoT), aplicaciones, centros de eventos externos y eventos de Fabric, como eventos de elementos de área de trabajo, eventos OneLake y eventos de trabajo. Si necesita hacer referencia a una base de datos del Lenguaje de Consulta Kusto (KQL) de origen, como una base de datos existente de Azure Data Explorer en Real-Time Intelligence, puede crear un acceso directo a la base de datos para acceder a los datos sin duplicarlos ni reingestarlos.
Store
Eventstream admite el enrutamiento de datos a diferentes destinos. Almacene grandes volúmenes de datos en un centro de eventos, que es una solución de almacenamiento escalable, optimizada y de alto rendimiento. Puede crear una base de datos KQL dentro de un centro de eventos que sea una base de datos especializada diseñada para el análisis de datos controlado por eventos mediante KQL.
Process
Use un conjunto de consultas KQL para escribir, ejecutar y administrar consultas KQL en varios orígenes de datos en tiempo real. Un conjunto de consultas KQL es una herramienta central en la experiencia de inteligencia de Real-Time. Permite a los usuarios explorar, analizar y visualizar datos de streaming o series temporales. Puede usar T-SQL en Real-Time Intelligence para consultar los datos de streaming almacenados en bases de datos KQL. KQL es el lenguaje principal para el análisis en tiempo real, pero Fabric también admite T-SQL para los usuarios familiarizados con el análisis basado en SQL.
Para el procesamiento entre motores, active la disponibilidad de OneLake para crear una copia lógica de los datos de base de datos KQL. Puede consultar los datos en formato Delta Lake desde otros motores de Fabric, como el modo Direct Lake en Power BI, almacenes, lagos de datos y cuadernos.
Serve
Los analistas de negocios pueden crear un panel de Real-Time Intelligence, que es una colección de iconos controlados por consultas KQL. Puede organizar iconos en páginas y conectarlos a orígenes de datos. El panel se actualiza automáticamente, lo que proporciona visibilidad casi instantánea de los datos a medida que fluye a través del sistema. También puede agregar Data Activator a un icono de panel para supervisar las métricas que cambian con frecuencia, definir condiciones de alerta y recibir notificaciones por correo electrónico o Teams. Cree un informe de Power BI para generar informes a partir de modelos semánticos creados a partir de la base de datos KQL como origen.
El uso compartido de datos externos de Fabric permite a un usuario de un inquilino de Fabric (el proveedor) compartir datos con un usuario de otro inquilino de Fabric (el consumidor). Admite la colaboración entre organizaciones al tiempo que mantiene los límites de gobernanza y seguridad. Los consumidores de datos acceden a datos de solo lectura a través de accesos directos de OneLake en sus propias bases de datos KQL.
Un agente de datos de Fabric puede trabajar con bases de datos KQL para permitir a los usuarios formular preguntas, lo que facilita el uso de datos en tiempo real para usuarios no técnicos. Copilot puede traducir consultas de lenguaje natural en KQL que puedes ejecutar.
Components
Esta arquitectura usa los siguientes servicios de Fabric y Azure:
Copilot en Fabric es un asistente de IA generativo incrustado en la plataforma Fabric. En esta arquitectura, ayuda a crear canalizaciones de datos escalables, crear código de Spark para transformaciones de datos, generar SQL optimizado para Data Warehouse, escribir consultas KQL para Real-Time Intelligence y crear modelos semánticos y medidas de expresiones de análisis de datos (DAX) para la generación de informes.
Un agente de datos de Fabric es una característica controlada por inteligencia artificial que ayuda a los usuarios a interactuar con los datos de la organización mediante lenguaje natural. En esta arquitectura, los agentes de datos sirven como una interfaz conversacional para traducir preguntas de lenguaje natural en consultas estructuradas, como SQL, DAX o KQL.
Microsoft Purview es una plataforma unificada para la gobernanza, la seguridad y el cumplimiento de los datos. En esta arquitectura, Microsoft Purview rige todo el patrimonio de datos y el linaje, desde el origen de datos hasta el informe de Power BI.
El uso compartido de datos externos de Fabric es una característica que permite la colaboración segura entre inquilinos al permitir que los usuarios compartan datos de su entorno de Fabric con usuarios de otro inquilino de Fabric. En esta arquitectura, las organizaciones pueden colaborar entre límites de inquilino sin duplicar datos.
Fabric API para GraphQL es una característica que permite a los desarrolladores exponer e interactuar con datos mediante el lenguaje de consulta GraphQL. En esta arquitectura, permite a los usuarios desarrollar aplicaciones de datos.
Real-Time Intelligence es una solución de análisis controlada por eventos diseñada para procesar, analizar y actuar sobre los datos de streaming. En esta arquitectura, procesa datos de streaming de gran volumen y proporciona paneles en tiempo real formados por iconos que visualizan consultas subyacentes.
Power BI es una plataforma de visualización de datos y inteligencia empresarial (BI). En esta arquitectura, se conecta a OneLake para crear paneles e informes.
Microsoft Foundry es una plataforma como servicio unificada (PaaS) para compilar, implementar y administrar aplicaciones y agentes de inteligencia artificial a escala empresarial. En esta arquitectura, los agentes de Foundry enriquecen y facilitan sistemas multi-agente, y los agentes de datos de Fabric sirven como expertos de dominio junto con otros agentes.
Azure Machine Learning es un servicio en la nube de nivel empresarial para administrar todo el ciclo de vida del aprendizaje automático, desde la preparación de datos y la experimentación hasta el entrenamiento, la implementación y la supervisión del modelo. En esta arquitectura, puedes activar que los usuarios ejecuten modelos de aprendizaje automático mediante endpoints por lotes. Los accesos directos de OneLake permiten que Machine Learning y Fabric compartan la misma instancia subyacente de Data Lake Storage, por lo que ambos servicios pueden leer y escribir sin duplicar los datos.
Microsoft Cost Management es un servicio que le ayuda a realizar un seguimiento, analizar y optimizar las facturas de recursos de Microsoft Azure. En esta arquitectura, el análisis de costos y la factura de Cost Management muestran varios medidores asociados al recurso de capacidad de Fabric.
Azure Key Vault es un servicio basado en la nube para almacenar y administrar información confidencial de forma segura, como secretos, claves y certificados. En esta arquitectura, administra las credenciales usadas en las conexiones y puertas de enlace de Fabric.
Azure Policy es una herramienta de gobernanza que aplica reglas de gobernanza en los recursos de Azure. En esta arquitectura, garantiza el cumplimiento, la gobernanza de datos y el control de costos en toda la plataforma de datos de Fabric.
Microsoft Entra ID es una solución de administración de identidades y acceso basada en la nube que garantiza el acceso seguro para usuarios, dispositivos y cargas de trabajo. En esta arquitectura, permite a los usuarios iniciar sesión en Fabric mediante sus credenciales de Microsoft Entra al aplicar controles de acceso de Confianza cero.
Azure DevOps es un conjunto de herramientas y servicios de desarrollo que Microsoft proporciona para admitir todo el ciclo de vida de desarrollo de software. En esta arquitectura, Azure DevOps se integra con áreas de trabajo de Fabric para administrar el ciclo de vida y proporcionar control de código fuente.
GitHub es una plataforma basada en la nube para el control de versiones y la colaboración que permite a los desarrolladores almacenar, administrar y realizar un seguimiento de los cambios en su código. En esta arquitectura, GitHub se integra con áreas de trabajo de Fabric para admitir la administración del ciclo de vida y el control de código fuente.
La característica de supervisión del área de trabajo de Fabric le permite recopilar, analizar, visualizar registros y métricas de elementos de Fabric dentro de un área de trabajo. En esta arquitectura, ayuda a realizar el diagnóstico de consultas en el entorno de Fabric, identificar problemas, crear paneles de supervisión personalizados y establecer alertas.
Alternatives
Fabric proporciona un conjunto de herramientas para administrar las cargas de trabajo de datos y análisis de forma eficaz. Con tantas opciones disponibles, seleccionar la herramienta adecuada puede ser difícil. Estas guías de decisión proporcionan una hoja de ruta para ayudarle a evaluar las opciones y determinar la estrategia más eficaz.
Para ver comparaciones de otras alternativas, consulte los siguientes recursos:
Detalles del escenario
En este escenario de ejemplo se muestra cómo Fabric facilita a las empresas la creación de una plataforma de datos unificada y moderna que simplifica la integración, acelera la información y reduce la complejidad operativa. Ayuda a las organizaciones a superar los desafíos comunes de los datos al impulsar la escalabilidad, la gobernanza y la eficiencia de los costos.
Posibles casos de uso
Modernice la plataforma de datos empresariales reemplazando las herramientas fragmentadas por una solución unificada.
Establezca una arquitectura de lago medallion utilizando Fabric lakehouses, con una capa Bronze para la ingesta de datos sin procesar, una capa Silver para datos limpios y transformados, y una capa Gold para los datos listos para el negocio que se utilizan en análisis e inteligencia artificial. Cree almacenes de datos como soluciones específicas de temática o dominio, diseñadas para temas que requieren análisis personalizados.
Integre orígenes de datos relacionales con conjuntos de datos no estructurados mediante motores de proceso de Fabric.
Ofrezca análisis operativos en tiempo real para supervisar y actuar sobre los datos de streaming con inteligencia en tiempo real.
Genere información de clientes con tecnología de inteligencia artificial para enriquecer los datos y impulsar el valor empresarial.
Proporcione informes empresariales y BI de autoservicio mediante el modelado semántico y las herramientas avanzadas de visualización.
Habilite el uso compartido de datos entre inquilinos mediante accesos directos de OneLake y el recurso compartido de datos externo.
Integre agentes de datos de Fabric con Azure AI Foundry o Microsoft Copilot Studio para crear soluciones de inteligencia artificial inteligentes, conversacionales y contextuales para usuarios y aplicaciones empresariales.
Recommendations
Tenga en cuenta las recomendaciones siguientes.
Detección y gobernanza
La gobernanza de datos es un desafío común en entornos empresariales grandes. Los analistas de negocios deben detectar y comprender los recursos de datos para resolver problemas empresariales, mientras que los directores de datos buscan información sobre la privacidad y la seguridad de los datos empresariales.
Microsoft Purview
La gobernanza de datos de Microsoft Purview consta de dos soluciones. El catálogo unificado y el mapa de datos proporcionan una experiencia de gobernanza moderna mediante la consolidación de metadatos de diversos catálogos y orígenes. Esta integración permite la visibilidad, refuerza la confianza de los datos y admite la innovación responsable en toda la empresa.
Mantenga los términos del glosario con la terminología empresarial específica que los usuarios necesitan para comprender la semántica del conjunto de datos y el uso en toda la organización. Registre orígenes de datos y organícelos en colecciones, que también sirven como límites de seguridad para los metadatos. Configurar análisis regulares para catalogar y actualizar automáticamente los metadatos pertinentes sobre los activos de datos de la organización. Cuando se examina un inquilino de Fabric, los metadatos y el linaje de los recursos de Fabric, incluido Power BI, se ingieren automáticamente en el catálogo de datos unificado de Microsoft Purview. Asigne automáticamente etiquetas de clasificación de datos y confidencialidad de datos a recursos de datos en función de reglas preconfiguradas o personalizadas durante los exámenes.
Utilice la gestión de salud del catálogo unificado para supervisar el estado general del panorama de datos y proteger a la organización frente a los riesgos de seguridad y privacidad. Un centro de Microsoft Purview integrado en Fabric proporciona información sobre el inventario de datos, las etiquetas de confidencialidad y las aprobaciones. Sirve como puerta de enlace para conectarse con funcionalidades más amplias de Microsoft Purview.
Servicios de plataforma
Fabric admite varios patrones de implementación que ayudan a las organizaciones a alinear su arquitectura de datos con las necesidades empresariales, los modelos de gobernanza y los requisitos de rendimiento. Estos patrones se definen en los niveles de inquilino, capacidad, área de trabajo y elemento de implementación. Cada patrón proporciona diferentes ventajas en la escalabilidad, el aislamiento, el costo y la complejidad operativa.
El diseño incorpora varios servicios fundamentales de Azure. Microsoft Entra ID proporciona servicios de identidad, inicio de sesión único (SSO) y autenticación multifactor en cargas de trabajo de Azure. Cost Management ofrece gobernanza financiera para las cargas de trabajo de Azure. Key Vault administra las credenciales y los certificados de forma segura. Al configurar un almacén de claves en Fabric, puede recuperar credenciales y certificados del servicio Key Vault. Use estas credenciales para acceder a almacenes de datos que no admiten la autenticación integrada, como orígenes locales o externos.
Azure Monitor recopila, analiza y actúa sobre la telemetría de los recursos de Azure para identificar de forma proactiva problemas y maximizar el rendimiento y la confiabilidad. Azure DevOps y GitHub Enterprise implementan operaciones de desarrollo (DevOps) para aplicar la automatización y el cumplimiento en las canalizaciones de implementación y desarrollo de cargas de trabajo de Fabric. Este enfoque permite la administración del control de versiones, la colaboración y el ciclo de vida. Azure Policy aplica estándares y gobernanza de la organización para garantizar la coherencia de los recursos, el cumplimiento normativo, la seguridad, el control de costos y la administración.
Considerations
Estas consideraciones implementan los pilares de Azure Well-Architected Framework, que es un conjunto de principios rectores que puede usar para mejorar la calidad de una carga de trabajo. Para obtener más información, consulte Well-Architected Framework.
Optimización de costos
La optimización de costos se centra en formas de reducir los gastos innecesarios y mejorar las eficiencias operativas. Para obtener más información, consulte Lista de comprobación de revisión de diseño para la optimización de costos.
Para calcular los costos, consulte Precios. El plan de tarifa ideal y el costo total de cada servicio de la arquitectura dependen de la cantidad de datos procesados y almacenados y del nivel de rendimiento esperado. Use la siguiente guía para explorar las principales estrategias de optimización de costos para Fabric:
La capacidad de tejido es un grupo compartido que impulsa todas las funcionalidades de Fabric, desde la ingeniería de datos y el almacenamiento de datos hasta las experiencias de modelado de datos, BI e IA. Microsoft cobra las unidades de capacidad (UC) por hora, con opciones de pago por uso o de reserva. El pago por uso proporciona flexibilidad para pagar solo las horas de uso de la capacidad de Fabric. Puede pausar las capacidades cuando no están en uso para administrar los costos, sin necesidad de un compromiso mensual o anual. Las reservas proporcionan una facturación predecible y suelen ofrecer ahorros para cargas de trabajo estables. OneLake Storage proporciona una sola copia de datos en todos los motores analíticos sin necesidad de mover o duplicar datos.
La herramienta Estimador de capacidad de Fabric ayuda a calcular las necesidades de capacidad y a determinar los requisitos de SKU y almacenamiento adecuados en función de las características de la carga de trabajo. Supervise el uso y el consumo mediante la aplicación Fabric Capacity Metrics para mostrar el uso de la capacidad. Cost Management realiza un seguimiento del uso y establece alertas de presupuesto. Para más información, consulte Descripción de la factura de Azure para una capacidad de Fabric. Las guías de solución de problemas de capacidad de Fabric proporcionan recursos para supervisar y optimizar proactivamente el uso de la capacidad.
La aplicación de Contracargo de Fabric (versión preliminar) ayuda a las organizaciones a realizar un seguimiento, analizar y asignar costos de uso de capacidad en unidades de negocio, usuarios y cargas de trabajo que usan Fabric. Admite modelos de contracargo y showback para habilitar la distribución de costos transparente y justa en función del consumo real. Los precios de Microsoft Purview dependen del número de recursos de datos del catálogo y de la potencia de proceso necesaria para examinarlos.
Excelencia operativa
La excelencia operativa abarca los procesos de las operaciones que implementan una aplicación y la mantienen en ejecución en producción. Para obtener más información, consulte la Lista de comprobación de revisión de diseño para la excelencia operativa.
Adopte una metodología coherente de infraestructura como código (IaC) para aprovisionar capacidades de Fabric mediante Bicep, plantillas de Azure Resource Manager (plantillas de ARM) y Terraform. Integre áreas de trabajo de Fabric con Git para la gestión del ciclo de vida de aplicaciones de Fabric y use canalizaciones de implementación para la integración continua e implementación continua (CI/CD).
Use el centro de supervisión para supervisar las actividades de Fabric. El área de trabajo de supervisión de administradores proporciona un área de trabajo dedicada para que los administradores de Fabric supervisen y administren las operaciones de inquilino. Proporciona informes integrados para información general sobre la actividad, detalles de la actividad y gobernanza, lo que permite a los administradores supervisar las cargas de trabajo y el uso de forma eficaz. Envíe mensajes de Teams en chats grupales o canales para notificar el estado de la canalización. Para las notificaciones por correo electrónico, use la actividad de Office 365 Outlook.
Aplicar directivas de gobernanza a través de Microsoft Purview. Programe revisiones de Well-Architected periódicas y sprints de optimización. Para obtener más información sobre las nuevas características de Fabric y cuándo esperarlas, consulte Hoja de ruta de Fabric. Implemente una arquitectura similar en entornos de preproducción en los que desarrolle y pruebe la plataforma. Tenga en cuenta los requisitos específicos de su plataforma y las funcionalidades de cada servicio para crear un entorno de preproducción rentable.
Contributors
Microsoft mantiene este artículo. Los colaboradores siguientes escribieron este artículo.
Autores principales:
- Kevin Lee | Arquitecto de soluciones en la nube
- Lavanya Sreedhar | Arquitecto sénior de soluciones en la nube
Para ver los perfiles no públicos de LinkedIn, inicie sesión en LinkedIn.