Exécuter du code Spark
Pour modifier et exécuter du code Spark dans Microsoft Fabric, vous pouvez utiliser des notebooks ou définir un travail Spark.
Cahiers
Lorsque vous souhaitez utiliser Spark pour explorer et analyser des données de manière interactive, utilisez un notebook. Les blocs-notes vous permettent de combiner du texte, des images et du code écrits dans plusieurs langues pour créer un élément interactif que vous pouvez partager avec d’autres personnes et collaborer.
Les notebooks se composent d’une ou plusieurs cellules, chacune pouvant avoir du contenu au format markdown ou du code exécutable. Vous pouvez exécuter le code de manière interactive dans le notebook et voir les résultats immédiatement.
Définition d’un travail Spark
Si vous souhaitez utiliser Spark pour ingérer et transformer des données dans le cadre d’un processus automatisé, vous pouvez définir un travail Spark afin d’exécuter un script à la demande ou en fonction d’une planification.
Pour configurer un travail Spark, créez une définition de travail Spark dans votre espace de travail et spécifiez le script qu’il doit exécuter. Vous pouvez également spécifier un fichier de référence (par exemple un fichier de code Python contenant des définitions de fonctions utilisées dans votre script) et une référence à un lakehouse spécifique contenant des données que le script traite.