Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel enthält eine Aufschlüsselung der Definitionsstruktur für Umgebungselemente.
Definitionsteile
| Definitionsteilpfad | type | Erforderlich | BESCHREIBUNG |
|---|---|---|---|
Libraries/CustomLibraries/<libraryname>.jar |
CustomLibraries (JAR) | FALSCH | Eine benutzerdefinierte Jar-Bibliothek im Base64-codierten Format |
Libraries/CustomLibraries/<libraryname>.py |
CustomLibraries (PY) | FALSCH | Eine benutzerdefinierte Python-Skriptdatei im Base64-codierten Format |
Libraries/CustomLibraries/<libraryname>.whl |
CustomLibraries (WHL) | FALSCH | Eine benutzerdefinierte Raddatei im Base64-codierten Format |
Libraries/CustomLibraries/<libraryname>.tar.gz |
CustomLibraries (TAR. GZ) | FALSCH | Eine benutzerdefinierte R-Archivdatei im Base64-codierten Format |
Libraries/PublicLibraries/environment.yml |
ExternalLibraries (YAML) | FALSCH | Eine YAML-Umgebungsdatei mit externen Bibliotheken im Base64-codierten Format |
Setting/Sparkcompute.yml |
SparkComputeSettings (YAML) | FALSCH | Spark compute settings YAML im Base64-codierten Format |
.platform |
PlatformDetails (JSON) | FALSCH | Beschreibt die Metadaten des Elements. |
Jeder Definitionsteil eines Umgebungselements wird wie folgt erstellt:
-
Path - Der Dateiname, z. B.
Setting/Sparkcompute.yml. - Nutzlasttyp - InlineBase64
- Payload- Siehe: Beispiel für Nutzlastinhalte, die von Base64-decodiert wurden.
Beschreibung für Inhalte externer Spark-Bibliotheken
Beschreibt die Felder zum Erstellen der environment.yml.
| Name | Typ | Erforderlich | BESCHREIBUNG |
|---|---|---|---|
| abhängigkeiten | Wörterbuch | Wahr | Eine Liste der Conda-Pakete, die in der Umgebung installiert werden. Das Format ist <package_name>==<version_number>. |
| pip | Wörterbuch | FALSCH | Gibt zusätzliche Python-Pakete an, die mithilfe von Pip installiert werden sollen. Dies kann eine Liste von Zeichenfolgen sein, bei denen jede Zeichenfolge ein Pip-Paket ist, das im Format <package_name>==<version_number>installiert werden soll. |
Beschreibung für Spark Settings Contents
Beschreibt die Felder, die zum Erstellen der SparkCompute.ymlverwendet werden.
| Name | Typ | Erforderlich | BESCHREIBUNG |
|---|---|---|---|
| enable_native_execution_engine | Boolean | Wahr | Aktivieren Sie das systemeigene Ausführungsmodul. True – Aktiviert, False – Deaktiviert. |
| instance_pool_id | Schnur | Wahr | Umgebungspool. Muss ein gültiger benutzerdefinierter Pool sein, der durch die Instanzpool-ID angegeben wird. Wenn kein Startpool (NULL) angegeben wird, wird ein Startpool erstellt. |
| driver_cores | Ganze Zahl | Wahr | Spark-Treiberkerne. Die zulässigen Werte sind 4, 8, 16, 32 und 64. |
| driver_memory | Schnur | Wahr | Spark-Treiberspeicher. Die zulässigen Werte sind 28g, 56g, 112g, 224g, 400g. |
| executor_cores | Ganze Zahl | Wahr | Spark executor cores. Die zulässigen Werte sind 4, 8, 16, 32, 64. |
| executor_memory | Schnur | Wahr | Spark executor memory. Die zulässigen Werte sind 28g, 56g, 112g, 224g, 400g. |
| dynamic_executor_allocation | Objekt | Wahr | Dynamische Ausführungszuweisung. Siehe Beschreibung für dynamic_executor_allocation Inhalt. |
| spark_conf | Wörterbuch | FALSCH | Spark-Konfigurationen. |
| runtime_version | Schnur | Wahr | Die Laufzeitversion finden Sie die unterstützten Fabric-Laufzeiten. |
Beschreibung für dynamic_executor_allocation Inhalte
Beschreibt die Felder, die zum Erstellen der dynamic_executor_allocationverwendet werden.
| Name | Typ | Erforderlich | BESCHREIBUNG |
|---|---|---|---|
| aktiviert | Boolean | Wahr | Der Status der dynamischen Executorzuordnung. True – Aktiviert, False – Deaktiviert. |
| min_executors | Ganze Zahl | Wahr | Die minimale Ausführungsnummer für die dynamische Zuordnung. Der Mindestwert ist 1. Der Maximalwert muss unter dem maxExecutorsliegen. |
| max_executors | Ganze Zahl | Wahr | Die maximale Ausführungsnummer für die dynamische Zuordnung. Der Mindestwert ist 1. Der Maximalwert muss unter dem maxNodeCount Instanzpool liegen. |
Plattformpart
Der Plattformteil ist eine Datei, die die Metadateninformationen der Umgebung enthält.
- Element erstellen unter Berücksichtigung der Plattformdatei, sofern angegeben
- Definition Element abrufen gibt immer die Plattformdatei zurück.
-
Element aktualisieren Definition akzeptiert die Plattformdatei, sofern angegeben, jedoch nur, wenn Sie einen neuen URL-Parameter
updateMetadata=truefestlegen.
Beispiel für öffentliche Bibliotheken environment.yml von Base64 decodierten Inhalt
dependencies:
- matplotlib==0.10.1
- scipy==0.0.1
- pip:
- fuzzywuzzy==0.18.0
- numpy==0.1.28
Beispiel für Spark-Einstellungen Sparkcompute.yml von Base64 decodierten Inhalt
enable_native_execution_engine: false
instance_pool_id: 655fc33c-2712-45a3-864a-b2a00429a8aa
driver_cores: 4
driver_memory: 28g
executor_cores: 4
executor_memory: 28g
dynamic_executor_allocation:
enabled: true
min_executors: 1
max_executors: 2
spark_conf:
spark.acls.enable: true
runtime_version: 1.3
Definitionsbeispiel
{
"format": "null",
"parts": [
{
"path": "Libraries/CustomLibraries/samplelibrary.jar",
"payload": "eyJuYmZvcm1hdCI6N..",
"payloadType": "InlineBase64"
},
{
"path": "Libraries/CustomLibraries/samplepython.py",
"payload": "FyJuYmZvcm1hdCI6N..",
"payloadType": "InlineBase64"
},
{
"path": "Libraries/CustomLibraries/samplewheel-0.18.0-py2.py3-none-any.whl",
"payload": "LyJuYmZvcm1hdCI6N..",
"payloadType": "InlineBase64"
},
{
"path": "Libraries/CustomLibraries/sampleR.tar.gz",
"payload": "ZyJuYmZvcm1hdCI6N..",
"payloadType": "InlineBase64"
},
{
"path": "Libraries/PublicLibraries/environment.yml",
"payload": "IyJuYmZvcm1hdCI6N..",
"payloadType": "InlineBase64"
},
{
"path": "Setting/Sparkcompute.yml",
"payload": "GyJuYmZvcm1hdCI6N..",
"payloadType": "InlineBase64"
},
{
"path": ".platform",
"payload": "ZG90UGxhdGZvcm1CYXNlNjRTdHJpbmc",
"payloadType": "InlineBase64"
}
]
}