Compartir a través de


Uso de una base de datos de almacenamiento provisional para la migración de datos

Esta arquitectura de referencia resalta el rol estratégico de una base de datos de almacenamiento provisional en migraciones de datos a gran escala y complejas. En lugar de transferir datos directamente desde el sistema de origen al entorno de destino, el proceso introduce una capa de almacenamiento provisional intermedia. Los datos se ingieren primero en una base de datos provisional de migración temporal, donde se someten a la transformación y validación. Solo una vez completados estos pasos, los datos se cargan en Dataverse. Este patrón mejora la calidad de los datos, garantiza la integridad y reduce la probabilidad de errores durante el proceso de migración.

Diagrama de arquitectura

Diagrama de arquitectura que muestra el flujo de trabajo para una migración de datos compleja desde un sistema CRM, como Salesforce o Sibel a Microsoft Dataverse.

Flujo de datos

  • Extracción: los datos se extraen de los sistemas de origen.
  • Fase: los datos se cargan en la base de datos de almacenamiento provisional de origen.
  • Transformación: los scripts de migración procesan y transforman los datos.
  • Cargar: los datos transformados se cargan en la base de datos de almacenamiento provisional de destino.
  • Validar: las plantillas de Excel se usan para validar los datos maestros.
  • Integración: Las herramientas de migración de datos cargan datos en Dataverse y archivos en Azure Blob o SharePoint.

Components

  • Sistema de origen: el origen de datos original, que puede incluir bases de datos heredadas, sistemas ERP o aplicaciones que no son de Microsoft.
  • Base de datos de almacenamiento provisional: almacén de datos temporal e intermedio que se usa para ingerir, transformar y validar datos antes de la migración final. Esta capa desacopla los sistemas de origen y destino, lo que permite la preparación de datos controlada y auditable.
  • Proceso de ETL/ELT: canalizaciones de extracción, transformación y carga (o extracción, carga, transformación) que mueven datos de la base de datos de origen a la base de datos de almacenamiento provisional, aplican reglas de negocio y prepararlos para Dataverse.
  • Datos de referencia: datos usados para validar y enriquecer los datos maestros durante la migración. Por ejemplo, plantillas de datos maestros de Excel.
  • Dataverse: el sistema de destino en el que los datos limpios y validados se cargan en última instancia para su uso en aplicaciones de Power Platform.
  • Almacenamiento de archivos: almacenamiento para datos no estructurados, como datos adjuntos y documentos. Por ejemplo, Azure Blob Storage o SharePoint.

Detalles del escenario

Esta arquitectura funciona bien en escenarios en los que:

  • El sistema de origen contiene grandes volúmenes de datos o estructuras relacionales complejas que requieren transformación antes de la ingesta en Dataverse.
  • La migración directa no es factible debido a problemas de calidad de los datos, errores de coincidencia de esquema o a la necesidad de aplicar reglas de negocio.
  • El proceso de migración debe ser auditable, repetible y admitir la reversión o el reprocesamiento de segmentos de datos específicos.
  • La organización requiere un enfoque de migración por fases o incremental, como durante una modernización del sistema o un proyecto de transición a la nube.

Ejemplos de casos de uso

  • Migración de datos de clientes y transacciones desde un sistema ERP local a Dataverse para su uso en Power Apps y Power Automate.
  • Consolidación de datos de varios sistemas heredados en un entorno unificado de Dataverse.
  • Llevar a cabo el enriquecimiento de datos previo a la carga, como la geocodificación de direcciones o la asignación de códigos antiguos a nuevas taxonomías.

Nota:

En este ejemplo se supone que ya se ha realizado el análisis de procesos y la evaluación de la solución y que Dataverse se ha identificado como el destino adecuado para los datos. Los equipos siempre deben evaluar si una aplicación de primera entidad, como Dynamics 365 Finance and Operations (F&O), se alinea mejor con las necesidades empresariales antes de continuar con implementaciones personalizadas en Dataverse.

Más información: Guía de implementación de Dynamics 365

Ventajas clave

  • Control de calidad de los datos: la capa de almacenamiento provisional permite una validación y transformación exhaustivas antes de que los datos lleguen al entorno de producción.
  • Aislamiento de errores: los problemas se pueden identificar y resolver en el entorno de ensayo sin afectar a los sistemas de origen o de destino.
  • Escalabilidad: admite grandes volúmenes de datos y lógica de transformación compleja.
  • Auditabilidad: habilita el seguimiento del linaje de datos y el historial de transformación.

Consideraciones

Estas consideraciones implementan los pilares de Power Platform Well-Architected, un conjunto de principios rectores que mejoran la calidad de una carga de trabajo. Obtenga más información en Buena arquitectura de Microsoft Power Platform.

Reliability

  • Diseñe el proceso de ensayo y migración para que sea resistente a los errores. Implemente la lógica de reintento y los puntos de control en las canalizaciones de ETL para controlar errores transitorios.
  • Valide la integridad y la totalidad de los datos antes de cargar los datos en Dataverse para evitar migraciones parciales o corruptas.

Security

  • Aplique el control de acceso basado en rol (RBAC) para restringir el acceso a la base de datos provisional y a las herramientas de migración.
  • Cifre los datos en reposo y en tránsito, especialmente cuando se administran datos confidenciales o personales.
  • Registre y supervise el acceso al entorno de pruebas y Dataverse para cumplir con los requisitos de auditoría y cumplimiento.

Eficiencia del rendimiento

  • Optimice la lógica de extracción y transformación de datos para minimizar el tiempo de procesamiento y el consumo de recursos.
  • Use el procesamiento por lotes y el paralelismo cuando corresponda para controlar grandes volúmenes de datos de forma eficaz.
  • Supervise las métricas de rendimiento del entorno de ensayo y ajuste los recursos de proceso según sea necesario.

Excelencia operativa

  • Documente el proceso de migración, incluidas las asignaciones de datos, las reglas de transformación y la lógica de validación.
  • Implemente scripts de prueba y validación automatizados para garantizar la repetibilidad y reducir el error humano.
  • Use herramientas de orquestación como Azure Data Factory para administrar y supervisar el flujo de trabajo de migración de un extremo a otro.

Paso siguiente

En el siguiente artículo se describe un enfoque probado para administrar migraciones a gran escala. Uno de los mayores desafíos de las migraciones complejas es el seguimiento de los datos cargados, el control de errores y el reintento de registros con errores. Dado que estas migraciones pueden abarcar días o incluso semanas, use una estrategia por fases. Esta estrategia migra solo los datos delta durante la transición final de producción para minimizar la interrupción.