Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Microsoft Fabric unifica las herramientas de análisis de Microsoft en una única plataforma SaaS, que ofrece funcionalidades sólidas para la orquestación de flujos de trabajo, el movimiento de datos, la replicación y la transformación a escala. Fabric Data Factory se basa en Azure Data Factory (ADF), por lo que es una opción ideal para modernizar las soluciones de integración de datos.
En esta guía se exploran las estrategias de migración, las consideraciones y los enfoques para ayudarle a actualizar de Azure Data Factory a Fabric Data Factory.
Consideraciones antes de migrar
Antes de migrar, evalúe qué reutilizar, traducir o rediseñar. Siga estos pasos para garantizar una transición fluida:
- Identifique los patrones de autenticación, como la identidad administrada o la autenticación basada en claves.
- Revise los requisitos de red, incluidos los puntos de conexión privados y las puertas de enlace.
- Asigne la programación y la semántica del desencadenador, y alinee las configuraciones de supervisión y alertas.
- Compare las características de ADF con sus homólogos de Fabric, teniendo en cuenta las lagunas como los flujos de datos o SSIS.
- Defina destinos no funcionales, como acuerdos de nivel de servicio, rendimiento, límites de costos y observabilidad.
- Cree un escenario de prueba con conjuntos de datos de ejemplo y salidas esperadas para comparar objetivamente las ejecuciones de ADF y Fabric.
- Planee la rotación de secretos, las convenciones de nomenclatura y la taxonomía del área de trabajo para que la migración mejore (no simplemente reproduce) su estrategia actual de integración de datos.
Un enfoque por fases con planes de validación y reversión en paralelo minimiza el riesgo al tiempo que permite una ejecución más rápida, supervisión centralizada e integración más profunda con Microsoft Fabric.
Para migraciones de gran tamaño, considere la posibilidad de trabajar con asociados certificados de Microsoft o con su equipo de cuentas de Microsoft para obtener instrucciones.
Conexiones, servicios vinculados y conjuntos de datos
En Azure Data Factory (ADF), los servicios vinculados y los conjuntos de datos definen conexiones y estructuras de datos. En Fabric, estos se asignan a conexiones y configuraciones de actividad, con un enfoque más sólido en la reutilización a nivel de espacio de trabajo y la identidad administrada. Aquí te explicamos cómo adaptar tus recursos de ADF:
- Consulte la conectividad del conector entre Azure Data Factory y Fabric para confirmar la compatibilidad con los orígenes de datos y los destinos.
- Consolide las conexiones redundantes para simplificar la administración.
- Adopte la identidad administrada para una autenticación segura y coherente.
- Normalice la parametrización de carpetas y tablas mediante convenciones de nomenclatura claras, por ejemplo:
conn-sql-warehouse-salesods-lh-raw-orders.
Para garantizar la coherencia y la escalabilidad, documente completamente cada origen y destino con:
- Propietarios
- Niveles de sensibilidad
- Configuraciones de reintento
Esta documentación ayuda a templatizar las operaciones entre canalizaciones y mejora la gobernanza.
Entornos de ejecución de integración y OPDG, puerta de enlace de red virtual
Azure Data Factory (ADF) usa Integration Runtimes (RR) para definir recursos de proceso para el procesamiento de datos. Estos incluyen:
- Runtimes de integración en la nube para cómputo hospedado en Azure.
- Runtimes de integración autohospedados (SHIR) para orígenes locales o de red privada.
- IR de SSIS para SQL Server Integration Services.
- IR habilitados para VNet para una conectividad de red segura.
En Fabric, estas opciones se asignan a la ejecución en la nube, el Gateway de datos local (OPDG) y la puerta de enlace de datos de red virtual. Aquí se muestra cómo planear la migración:
- Identifique las canalizaciones que dependen de SHIR y planifique su asignación de puerta de enlace y dimensionamiento de capacidad.
- Valide DNS, salida, reglas de firewall y autenticación para cada conector.
- Ensayar escenarios de conmutación por error para garantizar la confiabilidad.
- Cuando sea posible, migre a puntos de conexión privados o puertas de enlace de datos de red virtual para simplificar las revisiones de seguridad y reducir la sobrecarga operativa.
Fabric simplifica la administración de procesos mediante el uso de recursos basados en la nube dentro de las capacidades de Fabric. Las IR de SSIS no están disponibles en Fabric. Para la conectividad local, use la puerta de enlace de datos local (OPDG). Para una conectividad de red segura, use la puerta de enlace de datos de red virtual.
Al migrar:
- No es necesario migrar las IR de Azure de la red pública.
- Vuelva a crear SHIR como OPDG.
- Reemplace las instancias de Azure IR habilitadas para red virtual por puertas de enlace de datos de red virtual.
Diferencias de actividad de canalización
Todas las actividades principales de Azure Data Factory (ADF), como Copy, Lookup, Stored Procedure/SQL Script, Web y Control, tienen equivalentes directos en Fabric. Sin embargo, hay algunas diferencias en las propiedades, la sintaxis de expresión y los límites. Al migrar, revise lo siguiente:
- Políticas de reintento y tiempos de espera.
- Configuración de paginación para orígenes REST.
- Configuraciones de copia binaria frente a tabular.
- Patrones "foreach" y "filter".
- Variables del sistema usadas en contenido dinámico.
Fabric suele proporcionar más opciones nativas para determinadas tareas. Por ejemplo, use SQL Script en un Data Warehouse en lugar de una llamada de procedimiento almacenado genérica para mejorar la rastreabilidad y la supervisión. Para simplificar la migración, centralice expresiones comunes como rutas, fechas y URIs específicos del cliente en parámetros de canalización. Esto reduce el desfase y acelera las pruebas.
Para más información, consulte Continuidad de la actividad entre Azure Data Factory y Fabric.
Diferencias de flujo de datos
Los Mapping Data Flows de Azure Data Factory (ADF) no corresponden directamente con Fabric. En su lugar, normalmente las retrabajará utilizando una de las siguientes opciones:
- Flujo de datos Gen2 para transformaciones de conjunto de filas y transformaciones controladas y con poco código.
- Fabric Warehouse SQL para tareas ELT basadas en conjuntos, como las operaciones MERGE o ELT próximas a los datos.
- Cuadernos de Spark para transformaciones avanzadas, lógica compleja o procesamiento a gran escala.
Al migrar, valide lo siguiente:
- Tipos de datos y control nulo.
- Claves suplentes y dimensiones que cambian lentamente.
- Patrones ELT idempotentes, como ensayo y MERGE, para garantizar las repeticiones predecibles.
Para escenarios de migración, consulte Migración de Dataflow Gen1 a Dataflow Gen2.
Parámetros globales en Azure Data Factory
Fabric utiliza Bibliotecas de Variables a nivel de área de trabajo para definir elementos constantes de Fabric. Al migrar a Microsoft Fabric Data Factory, deberá convertir los parámetros globales de Azure Data Factory en bibliotecas de variables.
Para obtener instrucciones de conversión completas, consulte Conversión de parámetros globales de ADF en bibliotecas de variables de Fabric.
Ofertas de asociados de Azure Marketplace
Los asociados de migración de confianza, como Bitwise Global, proporcionan herramientas para ayudar con la migración. Estas herramientas pueden:
- Examine el entorno de Azure Data Factory (ADF).
- Genere artefactos de objetivo de Fabric.
- Realizar análisis de impacto y seguimiento de linaje.
- Cree planes de prueba automatizados.
Estas soluciones son especialmente útiles si tiene:
- Cientos de canalizaciones.
- Diversos conectores.
- Requisitos estrictos de tiempo de inactividad.
Las herramientas de asociados estandarizan las reglas de asignación, generan informes de conversión y ejecutan pruebas de validación paralelas. Esto le permite comparar recuentos de filas, sumas de comprobación y rendimiento entre los entornos antiguos y nuevos. Incluso si no usa un asociado para toda la migración, sus módulos de detección y evaluación pueden ayudarle a iniciar el planeamiento interno y reducir las incertidumbres.
Uso de herramientas de IA
Los modelos de lenguaje grande (LLM) como Microsoft Copilot, ChatGPT y Claude pueden acelerar las tareas de migración. Estas herramientas son útiles para:
- Refactorización de expresiones.
- Conversión de JSON de Azure Data Factory (ADF) a sintaxis de Fabric.
- Escribir instrucciones MERGE.
- Generación de plantillas de conexión.
- Elaboración de scripts de validación.
También puede usarlos para crear documentación, como runbooks, diccionarios de datos y listas de comprobación de migración, lo que garantiza que los ingenieros y operadores permanezcan alineados. Sin embargo, mantenga estas herramientas en el bucle, no a cargo:
- Evite pegar información confidencial en herramientas de inteligencia artificial.
- Valide todos los elementos de un entorno de desarrollo.
- Use pruebas automatizadas, como recuentos de filas, comparaciones de esquemas y comprobaciones de reglas de negocio, para detectar problemas sutiles, como errores de coincidencia de tipos o análisis de fechas específicos de la configuración regional.
Para obtener más información, consulte Uso de Copilot en Data Factory e IA en Microsoft Fabric.
Rutas de migración:
Las rutas de migración dependen de los recursos de ADF y su paridad de funcionalidad. Entre las opciones se incluyen:
- Montaje de elementos de ADF en Fabric para garantizar la continuidad.
- Uso de la herramienta de conversión de PowerShell para canalizaciones con alta paridad.
- Replataformización para adoptar patrones nativos de la plataforma Fabric.
Contenido relacionado
Comparación de Azure Data Factory con Data Factory en Fabric