Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
S’applique à : ✅base de données SQL dans Microsoft Fabric
Dans ce tutoriel, vous créez un pipeline qui charge des exemples de données à partir d’une base de données Azure SQL dans une base de données SQL dans Fabric.
Un pipeline est un regroupement logique d’activités qui effectuent ensemble une tâche d’ingestion de données. Les pipelines vous permettent de gérer les activités d’extraction, de transformation et de chargement (ETL) au lieu de les gérer individuellement.
Prérequis
- Vous avez besoin d’une capacité de Fabric existante. Si ce n’est pas le cas, démarrez une version d’évaluation de Fabric.
- Créez un espace de travail ou utilisez un espace de travail Fabric existant.
- Créez ou utilisez une base de données SQL existante dans Fabric. Si vous n’en avez pas encore, créez une base de données SQL dans Fabric.
- Créez ou utilisez une base de données Azure SQLexistante avec des données.
- La base de données Azure SQL source peut être une base de données unique ou une base de données dans un pool élastique.
- Si vous n’avez pas de base de données Azure SQL, créez une nouvelle base de données unique. Utilisez l’offre gratuite de la base de données Azure SQL si vous ne l’avez pas déjà fait.
- Pour cette procédure pas à pas, nous nous appuyons sur l’ouverture de ports sur la base de données Azure SQL source à l’aide du paramètre « Autoriser les services et ressources Azure à accéder à ce serveur ».
- Pour renforcer la sécurité, envisagez une passerelle pour transférer vos données. Pour plus d’informations, consultez Comment accéder aux sources de données locales dans Data Factory.
Créer un pipeline
- Dans votre espace de travail, sélectionnez + Nouveau, puis Autres options.
- Sous Data Factory, sélectionnez Pipeline.
- Une fois le pipeline créé, sous Démarrer avec des conseils, choisissez Assistant de copie de données.
- Dans la page Choisir une source de données, sélectionnez Base de données Azure SQL.
- Fournissez l’authentification pour la connexion à la Base de données Azure SQL source.
- Pour la destination, choisissez Base de données SQL Fabric dans la liste du catalogue OneLake.
- Cliquez sur Suivant.
Charger les données
- Dans la page Se connecter à la destination des données, sélectionnez Charger dans une nouvelle table pour chaque table. Vérifiez les mappages pour chaque table. Cliquez sur Suivant.
- Vérifiez les détails de la source et de la destination.
- Cochez la case en regard de Démarrer le transfert de données immédiatement.
- Sélectionnez Enregistrer + exécuter.
- Dans le volet Activité s’exécute, vous devez voir toutes les coches vertes pour les activités de copie réussies. En cas d’erreur, les informations de résolution des problèmes sont disponibles dans la ligne ayant échoué.
Contenu connexe
- Prise en main de l’intégration des pipelines de déploiement à la base de données SQL dans Microsoft Fabric
- Ingérer des exemples de données et créer des objets et des données supplémentaires
- Configurer votre connexion de base de données SQL dans Data Factory
- Vue d’ensemble du connecteur de base de données SQL
- Configurer une base de données SQL dans une activité de copie