Big Data Pools - Create Or Update
Créez un pool Big Data.
Créez un pool Big Data.
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01&force={force}
Paramètres URI
| Nom | Dans | Obligatoire | Type | Description |
|---|---|---|---|---|
|
big
|
path | True |
string |
Nom du pool Big Data |
|
resource
|
path | True |
string minLength: 1maxLength: 90 |
Nom du groupe de ressources. Le nom ne respecte pas la casse. |
|
subscription
|
path | True |
string minLength: 1 |
ID de l’abonnement cible. |
|
workspace
|
path | True |
string |
Nom de l’espace de travail. |
|
api-version
|
query | True |
string minLength: 1 |
Version de l’API à utiliser pour cette opération. |
|
force
|
query |
boolean |
S’il faut arrêter des travaux en cours d’exécution dans le pool Big Data |
Corps de la demande
| Nom | Obligatoire | Type | Description |
|---|---|---|---|
| location | True |
string |
Emplacement géographique où réside la ressource |
| properties.autoPause |
Propriétés de mise en pause automatique du pool Spark |
||
| properties.autoScale |
Propriétés de mise à l’échelle automatique du pool Spark |
||
| properties.cacheSize |
integer (int32) |
Taille du cache |
|
| properties.customLibraries |
Liste des bibliothèques/packages personnalisés associés au pool Spark. |
||
| properties.defaultSparkLogFolder |
string |
Dossier par défaut dans lequel les journaux Spark seront écrits. |
|
| properties.dynamicExecutorAllocation |
Allocation d’exécuteur dynamique |
||
| properties.isAutotuneEnabled |
boolean |
Activer l’autotune |
|
| properties.isComputeIsolationEnabled |
boolean |
Indique si l’isolation de calcul est requise ou non. |
|
| properties.libraryRequirements |
Configuration requise pour la version de la bibliothèque de pool Spark |
||
| properties.nodeCount |
integer (int32) |
Nombre de nœuds dans le pool Big Data. |
|
| properties.nodeSize |
Niveau de puissance de calcul dont dispose chaque nœud du pool Big Data. |
||
| properties.nodeSizeFamily |
Type de nœuds que le pool Big Data fournit. |
||
| properties.provisioningState |
string |
État du pool Big Data. |
|
| properties.sessionLevelPackagesEnabled |
boolean |
Indique si les packages au niveau de la session sont activés. |
|
| properties.sparkConfigProperties |
Propriétés de configuration du pool Spark |
||
| properties.sparkEventsFolder |
string |
Dossier des événements Spark |
|
| properties.sparkVersion |
string |
Version d’Apache Spark. |
|
| tags |
object |
Balises de ressource. |
Réponses
| Nom | Type | Description |
|---|---|---|
| 200 OK |
D’ACCORD |
|
| 202 Accepted | ||
| Other Status Codes |
Exemples
Create or update a Big Data pool
Exemple de requête
PUT https://management.azure.com/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool?api-version=2021-06-01
{
"tags": {
"key": "value"
},
"location": "West US 2",
"properties": {
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"sparkEventsFolder": "/events",
"libraryRequirements": {
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
Exemple de réponse
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"lastSucceededTimestamp": "1970-01-01T10:00:00Z",
"isAutotuneEnabled": false
}
}
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
{
"error": {
"code": "Error code",
"message": "Error message"
}
}
Définitions
| Nom | Description |
|---|---|
|
Auto |
Propriétés de mise en pause automatique du pool Spark |
|
Auto |
Propriétés de mise à l’échelle automatique du pool Spark |
|
Big |
Pool Big Data |
|
Configuration |
Type du fichier de propriétés de configuration Spark. |
|
Dynamic |
Propriétés d’allocation d’exécuteur dynamique |
|
Error |
Informations supplémentaires sur l’erreur de gestion des ressources. |
|
Error |
Détail de l’erreur. |
|
Error |
Réponse d’erreur |
|
Library |
Informations sur une bibliothèque/package créée au niveau de l’espace de travail. |
|
Library |
Configuration requise pour la version de la bibliothèque de pool Spark |
|
Node |
Niveau de puissance de calcul dont dispose chaque nœud du pool Big Data. |
|
Node |
Type de nœuds que le pool Big Data fournit. |
|
Spark |
Propriétés de configuration du pool Spark |
AutoPauseProperties
Propriétés de mise en pause automatique du pool Spark
| Nom | Type | Description |
|---|---|---|
| delayInMinutes |
integer (int32) |
Nombre de minutes d’inactivité avant que le pool Big Data ne soit automatiquement suspendu. |
| enabled |
boolean |
Indique si la suspension automatique est activée pour le pool Big Data. |
AutoScaleProperties
Propriétés de mise à l’échelle automatique du pool Spark
| Nom | Type | Description |
|---|---|---|
| enabled |
boolean |
Indique si la mise à l’échelle automatique est activée pour le pool Big Data. |
| maxNodeCount |
integer (int32) |
Nombre maximal de nœuds que le pool Big Data peut prendre en charge. |
| minNodeCount |
integer (int32) |
Nombre minimal de nœuds que le pool Big Data peut prendre en charge. |
BigDataPoolResourceInfo
Pool Big Data
| Nom | Type | Description |
|---|---|---|
| id |
string |
ID de ressource complet pour la ressource. ex - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
| location |
string |
Emplacement géographique où réside la ressource |
| name |
string |
Nom de la ressource |
| properties.autoPause |
Propriétés de mise en pause automatique du pool Spark |
|
| properties.autoScale |
Propriétés de mise à l’échelle automatique du pool Spark |
|
| properties.cacheSize |
integer (int32) |
Taille du cache |
| properties.creationDate |
string (date-time) |
Heure de création du pool Big Data. |
| properties.customLibraries |
Liste des bibliothèques/packages personnalisés associés au pool Spark. |
|
| properties.defaultSparkLogFolder |
string |
Dossier par défaut dans lequel les journaux Spark seront écrits. |
| properties.dynamicExecutorAllocation |
Allocation d’exécuteur dynamique |
|
| properties.isAutotuneEnabled |
boolean |
Activer l’autotune |
| properties.isComputeIsolationEnabled |
boolean |
Indique si l’isolation de calcul est requise ou non. |
| properties.lastSucceededTimestamp |
string (date-time) |
Heure à laquelle le pool Big Data a été mis à jour avec succès. |
| properties.libraryRequirements |
Configuration requise pour la version de la bibliothèque de pool Spark |
|
| properties.nodeCount |
integer (int32) |
Nombre de nœuds dans le pool Big Data. |
| properties.nodeSize |
Niveau de puissance de calcul dont dispose chaque nœud du pool Big Data. |
|
| properties.nodeSizeFamily |
Type de nœuds que le pool Big Data fournit. |
|
| properties.provisioningState |
string |
État du pool Big Data. |
| properties.sessionLevelPackagesEnabled |
boolean |
Indique si les packages au niveau de la session sont activés. |
| properties.sparkConfigProperties |
Propriétés de configuration du pool Spark |
|
| properties.sparkEventsFolder |
string |
Dossier des événements Spark |
| properties.sparkVersion |
string |
Version d’Apache Spark. |
| tags |
object |
Balises de ressource. |
| type |
string |
Type de la ressource. Par exemple, « Microsoft.Compute/virtualMachines » ou « Microsoft.Storage/storageAccounts » |
ConfigurationType
Type du fichier de propriétés de configuration Spark.
| Valeur | Description |
|---|---|
| File | |
| Artifact |
DynamicExecutorAllocation
Propriétés d’allocation d’exécuteur dynamique
| Nom | Type | Description |
|---|---|---|
| enabled |
boolean |
Indique si l’allocation d’exécuteur dynamique est activée ou non. |
| maxExecutors |
integer (int32) |
Nombre maximal d’exécuteurs allotés |
| minExecutors |
integer (int32) |
Nombre minimal d’exécuteurs allotés |
ErrorAdditionalInfo
Informations supplémentaires sur l’erreur de gestion des ressources.
| Nom | Type | Description |
|---|---|---|
| info |
object |
Informations supplémentaires. |
| type |
string |
Type d’informations supplémentaire. |
ErrorDetail
Détail de l’erreur.
| Nom | Type | Description |
|---|---|---|
| additionalInfo |
Informations supplémentaires sur l’erreur. |
|
| code |
string |
Code d’erreur. |
| details |
Détails de l’erreur. |
|
| message |
string |
Message d’erreur. |
| target |
string |
Cible d’erreur. |
ErrorResponse
Réponse d’erreur
| Nom | Type | Description |
|---|---|---|
| error |
Objet d’erreur. |
LibraryInfo
Informations sur une bibliothèque/package créée au niveau de l’espace de travail.
| Nom | Type | Description |
|---|---|---|
| containerName |
string |
Nom du conteneur d’objets blob de stockage. |
| creatorId |
string |
ID du créateur de la bibliothèque/du package. |
| name |
string |
Nom de la bibliothèque. |
| path |
string |
Chemin d’accès d’objet blob de stockage de la bibliothèque. |
| provisioningStatus |
string |
État d’approvisionnement de la bibliothèque/du package. |
| type |
string |
Type de la bibliothèque. |
| uploadedTimestamp |
string (date-time) |
Heure de la dernière mise à jour de la bibliothèque. |
LibraryRequirements
Configuration requise pour la version de la bibliothèque de pool Spark
| Nom | Type | Description |
|---|---|---|
| content |
string |
Configuration requise pour la bibliothèque. |
| filename |
string |
Nom du fichier de configuration requise pour la bibliothèque. |
| time |
string (date-time) |
Heure de la dernière mise à jour du fichier de configuration requise de la bibliothèque. |
NodeSize
Niveau de puissance de calcul dont dispose chaque nœud du pool Big Data.
| Valeur | Description |
|---|---|
| None | |
| Small | |
| Medium | |
| Large | |
| XLarge | |
| XXLarge | |
| XXXLarge |
NodeSizeFamily
Type de nœuds que le pool Big Data fournit.
| Valeur | Description |
|---|---|
| None | |
| MemoryOptimized | |
| HardwareAcceleratedFPGA | |
| HardwareAcceleratedGPU |
SparkConfigProperties
Propriétés de configuration du pool Spark
| Nom | Type | Description |
|---|---|---|
| configurationType |
Type du fichier de propriétés de configuration Spark. |
|
| content |
string |
Propriétés de configuration spark. |
| filename |
string |
Nom de fichier du fichier de propriétés de configuration Spark. |
| time |
string (date-time) |
Heure de la dernière mise à jour du fichier de propriétés de configuration Spark. |