Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Une définition de travail Apache Spark est un élément de code Microsoft Fabric qui vous permet d’envoyer des travaux de traitement par lots/streaming à des clusters Spark. En chargeant les fichiers binaires à partir de la sortie de compilation de différents langages (par exemple, .jar à partir de Java), vous pouvez appliquer une logique de transformation différente aux données hébergées sur un lakehouse. Outre le fichier binaire, vous pouvez personnaliser davantage le comportement du travail en chargeant davantage de bibliothèques et d’arguments de ligne de commande.
Pour exécuter une définition de tâche Spark, vous devez avoir au moins un lakehouse associé à celle-ci. Ce contexte lakehouse par défaut sert de système de fichiers par défaut pour le runtime Spark. Pour tout code Spark utilisant un chemin relatif pour lire/écrire des données, les données sont servies à partir du lakehouse par défaut.
Important
Pour exécuter un élément de définition de travail Spark, vous devez disposer d’un fichier de définition principal et d’un contexte lakehouse par défaut. Si vous n’avez pas de lakehouse, créez-en un en suivant les étapes décrites dans Créer un lac.