Big Data Pools - Create Or Update
Erstellen Sie einen Big Data-Pool.
Erstellen Sie einen neuen Big Data-Pool.
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01&force={force}
URI-Parameter
| Name | In | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
big
|
path | True |
string |
Name des Big Data-Pools |
|
resource
|
path | True |
string minLength: 1maxLength: 90 |
Der Name der Ressourcengruppe. Bei dem Namen wird die Groß-/Kleinschreibung nicht beachtet. |
|
subscription
|
path | True |
string minLength: 1 |
Die ID des Zielabonnements. |
|
workspace
|
path | True |
string |
Der Name des Arbeitsbereichs. |
|
api-version
|
query | True |
string minLength: 1 |
Die API-Version, die für diesen Vorgang verwendet werden soll. |
|
force
|
query |
boolean |
Gibt an, ob ausgeführte Aufträge im Big Data-Pool beendet werden sollen. |
Anforderungstext
| Name | Erforderlich | Typ | Beschreibung |
|---|---|---|---|
| location | True |
string |
Der geografische Standort, an dem sich die Ressource befindet |
| properties.autoPause |
Automatisches Anhalten von Sparkpooleigenschaften |
||
| properties.autoScale |
Eigenschaften der automatischen Skalierung des Spark-Pools |
||
| properties.cacheSize |
integer (int32) |
Die Cachegröße |
|
| properties.customLibraries |
Liste der benutzerdefinierten Bibliotheken/Pakete, die dem Sparkpool zugeordnet sind. |
||
| properties.defaultSparkLogFolder |
string |
Der Standardordner, in den Spark-Protokolle geschrieben werden. |
|
| properties.dynamicExecutorAllocation |
Dynamische Executor-Zuordnung |
||
| properties.isAutotuneEnabled |
boolean |
Aktivieren von Autotune |
|
| properties.isComputeIsolationEnabled |
boolean |
Gibt an, ob die Computeisolation erforderlich ist. |
|
| properties.libraryRequirements |
Versionsanforderungen für Sparkpoolbibliotheken |
||
| properties.nodeCount |
integer (int32) |
Die Anzahl der Knoten im Big Data-Pool. |
|
| properties.nodeSize |
Die Berechnungsleistung, über die jeder Knoten im Big Data-Pool verfügt. |
||
| properties.nodeSizeFamily |
Die Art der Knoten, die der Big Data-Pool bereitstellt. |
||
| properties.provisioningState |
string |
Der Zustand des Big Data-Pools. |
|
| properties.sessionLevelPackagesEnabled |
boolean |
Gibt an, ob Pakete auf Sitzungsebene aktiviert sind. |
|
| properties.sparkConfigProperties |
Konfigurationseigenschaften des Spark-Pools |
||
| properties.sparkEventsFolder |
string |
Der Ordner "Spark-Ereignisse" |
|
| properties.sparkVersion |
string |
Die Apache Spark-Version. |
|
| tags |
object |
Ressourcentags. |
Antworten
| Name | Typ | Beschreibung |
|---|---|---|
| 200 OK |
OKAY |
|
| 202 Accepted | ||
| Other Status Codes |
Beispiele
Create or update a Big Data pool
Beispielanforderung
PUT https://management.azure.com/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool?api-version=2021-06-01
{
"tags": {
"key": "value"
},
"location": "West US 2",
"properties": {
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"sparkEventsFolder": "/events",
"libraryRequirements": {
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
Beispiel für eine Antwort
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"lastSucceededTimestamp": "1970-01-01T10:00:00Z",
"isAutotuneEnabled": false
}
}
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
{
"error": {
"code": "Error code",
"message": "Error message"
}
}
Definitionen
| Name | Beschreibung |
|---|---|
|
Auto |
Automatisches Anhalten von Sparkpooleigenschaften |
|
Auto |
Eigenschaften der automatischen Skalierung des Spark-Pools |
|
Big |
Big Data-Pool |
|
Configuration |
Der Typ der Spark Config-Eigenschaftendatei. |
|
Dynamic |
Dynamische Executor-Zuordnungseigenschaften |
|
Error |
Der Ressourcenverwaltungsfehler zusätzliche Informationen. |
|
Error |
Das Fehlerdetails. |
|
Error |
Fehlerantwort |
|
Library |
Informationen zu einer Bibliothek/einem Paket, die auf Arbeitsbereichsebene erstellt wurden. |
|
Library |
Versionsanforderungen für Sparkpoolbibliotheken |
|
Node |
Die Berechnungsleistung, über die jeder Knoten im Big Data-Pool verfügt. |
|
Node |
Die Art der Knoten, die der Big Data-Pool bereitstellt. |
|
Spark |
Konfigurationseigenschaften des Spark-Pools |
AutoPauseProperties
Automatisches Anhalten von Sparkpooleigenschaften
| Name | Typ | Beschreibung |
|---|---|---|
| delayInMinutes |
integer (int32) |
Die Anzahl der Minuten im Leerlauf, bevor der Big Data-Pool automatisch angehalten wird. |
| enabled |
boolean |
Gibt an, ob das automatische Anhalten für den Big Data-Pool aktiviert ist. |
AutoScaleProperties
Eigenschaften der automatischen Skalierung des Spark-Pools
| Name | Typ | Beschreibung |
|---|---|---|
| enabled |
boolean |
Gibt an, ob die automatische Skalierung für den Big Data-Pool aktiviert ist. |
| maxNodeCount |
integer (int32) |
Die maximale Anzahl von Knoten, die der Big Data-Pool unterstützen kann. |
| minNodeCount |
integer (int32) |
Die Mindestanzahl der Knoten, die der Big Data-Pool unterstützen kann. |
BigDataPoolResourceInfo
Big Data-Pool
| Name | Typ | Beschreibung |
|---|---|---|
| id |
string |
Vollqualifizierte Ressourcen-ID für die Ressource. Ex - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
| location |
string |
Der geografische Standort, an dem sich die Ressource befindet |
| name |
string |
Der Name der Ressource |
| properties.autoPause |
Automatisches Anhalten von Sparkpooleigenschaften |
|
| properties.autoScale |
Eigenschaften der automatischen Skalierung des Spark-Pools |
|
| properties.cacheSize |
integer (int32) |
Die Cachegröße |
| properties.creationDate |
string (date-time) |
Die Zeit, zu der der Big Data-Pool erstellt wurde. |
| properties.customLibraries |
Liste der benutzerdefinierten Bibliotheken/Pakete, die dem Sparkpool zugeordnet sind. |
|
| properties.defaultSparkLogFolder |
string |
Der Standardordner, in den Spark-Protokolle geschrieben werden. |
| properties.dynamicExecutorAllocation |
Dynamische Executor-Zuordnung |
|
| properties.isAutotuneEnabled |
boolean |
Aktivieren von Autotune |
| properties.isComputeIsolationEnabled |
boolean |
Gibt an, ob die Computeisolation erforderlich ist. |
| properties.lastSucceededTimestamp |
string (date-time) |
Der Zeitpunkt, zu dem der Big Data-Pool erfolgreich aktualisiert wurde. |
| properties.libraryRequirements |
Versionsanforderungen für Sparkpoolbibliotheken |
|
| properties.nodeCount |
integer (int32) |
Die Anzahl der Knoten im Big Data-Pool. |
| properties.nodeSize |
Die Berechnungsleistung, über die jeder Knoten im Big Data-Pool verfügt. |
|
| properties.nodeSizeFamily |
Die Art der Knoten, die der Big Data-Pool bereitstellt. |
|
| properties.provisioningState |
string |
Der Zustand des Big Data-Pools. |
| properties.sessionLevelPackagesEnabled |
boolean |
Gibt an, ob Pakete auf Sitzungsebene aktiviert sind. |
| properties.sparkConfigProperties |
Konfigurationseigenschaften des Spark-Pools |
|
| properties.sparkEventsFolder |
string |
Der Ordner "Spark-Ereignisse" |
| properties.sparkVersion |
string |
Die Apache Spark-Version. |
| tags |
object |
Ressourcentags. |
| type |
string |
Der Typ der Ressource. Z. B. "Microsoft.Compute/virtualMachines" oder "Microsoft.Storage/storageAccounts" |
ConfigurationType
Der Typ der Spark Config-Eigenschaftendatei.
| Wert | Beschreibung |
|---|---|
| File | |
| Artifact |
DynamicExecutorAllocation
Dynamische Executor-Zuordnungseigenschaften
| Name | Typ | Beschreibung |
|---|---|---|
| enabled |
boolean |
Gibt an, ob die dynamische Executorzuordnung aktiviert ist oder nicht. |
| maxExecutors |
integer (int32) |
Die maximale Anzahl von Vollzugsausführern, die abgeworelt wurden |
| minExecutors |
integer (int32) |
Die Mindestanzahl der Vollzugsausführer |
ErrorAdditionalInfo
Der Ressourcenverwaltungsfehler zusätzliche Informationen.
| Name | Typ | Beschreibung |
|---|---|---|
| info |
object |
Die zusätzlichen Informationen. |
| type |
string |
Der zusätzliche Informationstyp. |
ErrorDetail
Das Fehlerdetails.
| Name | Typ | Beschreibung |
|---|---|---|
| additionalInfo |
Die zusätzlichen Informationen des Fehlers. |
|
| code |
string |
Der Fehlercode. |
| details |
Die Fehlerdetails. |
|
| message |
string |
Die Fehlermeldung. |
| target |
string |
Das Fehlerziel. |
ErrorResponse
Fehlerantwort
| Name | Typ | Beschreibung |
|---|---|---|
| error |
Das Fehlerobjekt. |
LibraryInfo
Informationen zu einer Bibliothek/einem Paket, die auf Arbeitsbereichsebene erstellt wurden.
| Name | Typ | Beschreibung |
|---|---|---|
| containerName |
string |
Name des Speicher-BLOB-Containers. |
| creatorId |
string |
Ersteller-ID der Bibliothek/des Pakets. |
| name |
string |
Name der Bibliothek. |
| path |
string |
Speicher-BLOB-Pfad der Bibliothek. |
| provisioningStatus |
string |
Bereitstellungsstatus der Bibliothek/des Pakets. |
| type |
string |
Typ der Bibliothek. |
| uploadedTimestamp |
string (date-time) |
Der Zeitpunkt der letzten Aktualisierung der Bibliothek. |
LibraryRequirements
Versionsanforderungen für Sparkpoolbibliotheken
| Name | Typ | Beschreibung |
|---|---|---|
| content |
string |
Die Bibliotheksanforderungen. |
| filename |
string |
Der Dateiname der Bibliotheksanforderungendatei. |
| time |
string (date-time) |
Der Zeitpunkt der letzten Aktualisierung der Bibliotheksanforderungendatei. |
NodeSize
Die Berechnungsleistung, über die jeder Knoten im Big Data-Pool verfügt.
| Wert | Beschreibung |
|---|---|
| None | |
| Small | |
| Medium | |
| Large | |
| XLarge | |
| XXLarge | |
| XXXLarge |
NodeSizeFamily
Die Art der Knoten, die der Big Data-Pool bereitstellt.
| Wert | Beschreibung |
|---|---|
| None | |
| MemoryOptimized | |
| HardwareAcceleratedFPGA | |
| HardwareAcceleratedGPU |
SparkConfigProperties
Konfigurationseigenschaften des Spark-Pools
| Name | Typ | Beschreibung |
|---|---|---|
| configurationType |
Der Typ der Spark Config-Eigenschaftendatei. |
|
| content |
string |
Die Spark-Konfigurationseigenschaften. |
| filename |
string |
Der Dateiname der Spark Config-Eigenschaftendatei. |
| time |
string (date-time) |
Der Zeitpunkt der letzten Aktualisierung der Spark Config-Eigenschaftendatei. |