Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Eine Apache Spark-Auftragsdefinition ist ein Microsoft Fabric-Codeelement, mit dem Sie Batch-/Streamingaufträge an Spark-Cluster übermitteln können. Durch Hochladen der Binärdateien aus der Kompilierungsausgabe verschiedener Sprachen (z. B. .jar aus Java) können Sie unterschiedliche Transformationslogik auf die daten anwenden, die in einem Seehaus gehostet werden. Neben der Binärdatei können Sie das Verhalten des Auftrags weiter anpassen, indem Sie weitere Bibliotheken und Befehlszeilenargumente hochladen.
Um eine Spark-Auftragsdefinition auszuführen, muss ihm mindestens ein Lakehouse zugeordnet sein. Dieser Standard-Lakehouse-Kontext dient als Standarddateisystem für Spark Runtime. Für jeden Spark-Code, der einen relativen Pfad zum Lesen/Schreiben von Daten verwendet, werden die Daten aus dem Standard-Lakehouse bereitgestellt.
Von Bedeutung
Zum Ausführen eines Spark-Auftragsdefinitionselements benötigen Sie eine Hauptdefinitionsdatei und einen Standard-Lakehouse-Kontext. Wenn Sie kein Seehaus haben, erstellen Sie eins, indem Sie die Schritte in Create a lakehouse ausführen.