Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Découvrez comment exécuter une définition de travail Apache Spark Microsoft Fabric et rechercher l’état et les détails de la définition de travail.
Prerequisites
Avant de commencer, vous devez :
- Créez un compte de locataire Microsoft Fabric avec un abonnement actif. Créez un compte gratuitement.
- Comprendre la définition du travail Spark : voir Qu’est-ce qu’une définition de travail Apache Spark ?.
- Créez une définition de travail Spark : voir Comment créer une définition de travail Apache Spark dans Fabric.
Comment exécuter une définition de travail Spark
Vous pouvez exécuter une définition de travail Spark de deux façons :
Exécutez manuellement une définition de travail Spark en sélectionnant Exécuter à partir de l’élément de définition de travail Spark dans la liste des travaux.
Planifiez une définition de travail Spark en configurant un plan de planification sous l’onglet Paramètres . Sélectionnez Paramètres dans la barre d’outils, puis sélectionnez Planifier.
Important
Pour s’exécuter, une définition de travail Spark doit avoir un fichier de définition principal et un contexte lakehouse par défaut.
Conseil / Astuce
Pour une exécution manuelle, le compte de l’utilisateur actuellement connecté est utilisé pour envoyer le travail. Pour une exécution déclenchée par une planification, le compte de l’utilisateur qui a créé le plan de planification est utilisé pour envoyer le travail.
Trois à cinq secondes après avoir envoyé l’exécution, une nouvelle ligne apparaît sous l’onglet Exécutions . La ligne affiche des détails sur votre nouvelle exécution. La colonne État affiche l’état quasiment en temps réel du travail, et la colonne Type d’exécution indique si le travail est manuel ou planifié.
Pour plus d’informations sur la surveillance d’un travail, consultez Surveiller votre définition de travail Apache Spark.
Comment annuler un travail en cours d’exécution
Une fois le travail envoyé, vous pouvez annuler le travail en sélectionnant Annuler l’exécution active à partir de l’élément de définition de travail Spark dans la liste des travaux.
Instantané de la spécification du job Spark
La définition de la tâche Spark stocke son dernier état. Pour afficher l’instantané de l’historique de l’exécution, sélectionnez Afficher l’instantané dans l’élément de définition du travail Spark dans la liste des tâches. L’instantané indique l’état de la définition de la tâche lors de la soumission de la tâche, y compris le fichier de définition principal, le fichier de référence, les arguments de ligne de commande, le lakehouse associé et les propriétés Spark.
À partir d’un instantané, vous pouvez effectuer trois actions :
- Enregistrer en tant que définition de travail Spark : enregistrez l’instantané en tant que nouvelle définition de travail Spark.
- Ouvrir la définition de tâche Spark : Ouvrez la définition actuelle de la tâche Spark.
- Restauration : Restaurer la définition du travail avec l’instantané. La définition de la tâche est restaurée à l'état où elle était lors de sa soumission.