Freigeben über


Was ist eine Apache Spark-Auftragsdefinition?

Eine Apache Spark-Auftragsdefinition ist ein Microsoft Fabric-Codeelement, mit dem Sie Batch-/Streamingaufträge an Spark-Cluster übermitteln können. Durch Hochladen der Binärdateien aus der Kompilierungsausgabe verschiedener Sprachen (z. B. .jar aus Java) können Sie unterschiedliche Transformationslogik auf die daten anwenden, die in einem Seehaus gehostet werden. Neben der Binärdatei können Sie das Verhalten des Auftrags weiter anpassen, indem Sie weitere Bibliotheken und Befehlszeilenargumente hochladen.

Um eine Spark-Auftragsdefinition auszuführen, muss ihm mindestens ein Lakehouse zugeordnet sein. Dieser Standard-Lakehouse-Kontext dient als Standarddateisystem für Spark Runtime. Für jeden Spark-Code, der einen relativen Pfad zum Lesen/Schreiben von Daten verwendet, werden die Daten aus dem Standard-Lakehouse bereitgestellt.

Von Bedeutung

Zum Ausführen eines Spark-Auftragsdefinitionselements benötigen Sie eine Hauptdefinitionsdatei und einen Standard-Lakehouse-Kontext. Wenn Sie kein Seehaus haben, erstellen Sie eins, indem Sie die Schritte in Create a lakehouse ausführen.

Nächste Schritte