Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Vous pouvez exporter les informations d’utilisation périodiquement. L’exportation et le chargement de ces informations créent et met à jour le contrôleur de données et l’instance managée SQL.
Note
Usage information is automatically uploaded for Azure Arc data controller deployed in direct connectivity mode. The instructions in this article only apply to uploading usage information for Azure Arc data controller deployed in indirect connectivity mode..
Attendez au moins 24 heures après avoir créé le contrôleur de données Azure Arc avant de charger des données d’utilisation.
Créer un principal du service et attribuer des rôles
Avant de continuer, assurez-vous que vous avez créé le principal du service requis et que vous l’avez affecté à un rôle approprié. Pour plus d’informations, consultez :
Les exemples de cet article utilisent des crochets pointus < ... > pour identifier les valeurs que vous devez remplacer avant d’exécuter le script. Remplacez les crochets et les valeurs à l’intérieur des crochets.
Charger les données d’utilisation
Les informations d’utilisation telles que l’inventaire et l’utilisation des ressources peuvent être téléchargées sur Azure de la manière suivante :
- Exportez les données d’utilisation à l’aide de la commande
az arcdata dc export, comme suit :
Note
L’exportation des informations d’utilisation/facturation, des métriques et des journaux à l’aide de la commande az arcdata dc export nécessite de contourner la vérification SSL pour l’instant. Vous êtes invité à contourner la vérification SSL ou vous pouvez définir la variable d’environnement AZDATA_VERIFY_SSL=no pour éviter les invites. Il n’existe actuellement aucun moyen de configurer un certificat SSL pour l’API d’exportation du contrôleur de données.
az arcdata dc export --type usage --path usage.json --k8s-namespace <namespace> --use-k8s
Cette commande crée un usage.json fichier avec toutes les ressources de données avec Azure Arc, telles que les instances managées SQL créées sur le contrôleur de données.
Actuellement, le fichier n’étant pas chiffré, vous pouvez en voir le contenu. N’hésitez pas à l’ouvrir dans un éditeur de texte pour voir à quoi ressemble le contenu.
Vous remarquerez qu’il existe deux ensembles de données : resources et data. Les resources sont le contrôleur de données et les instances SQL gérées. Les enregistrements resources dans les données capturent les événements pertinents dans l’historique d’une ressource, lors de sa création, lors de sa mise à jour et lors de sa suppression. Les enregistrements data capturent le nombre de cœurs disponibles qu’une instance donnée peut utiliser à chaque heure.
Exemple d’entrée resource :
{
"customObjectName": "<resource type>-2020-29-5-23-13-17-164711",
"uid": "4bc3dc6b-9148-4c7a-b7dc-01afc1ef5373",
"instanceName": "sqlInstance001",
"instanceNamespace": "arc",
"instanceType": "<resource>",
"location": "eastus",
"resourceGroupName": "production-resources",
"subscriptionId": "aaaa0a0a-bb1b-cc2c-dd3d-eeeeee4e4e4e",
"isDeleted": false,
"externalEndpoint": "32.191.39.83:1433",
"vCores": "2",
"createTimestamp": "05/29/2020 23:13:17",
"updateTimestamp": "05/29/2020 23:13:17"
}
Exemple d’entrée data :
{
"requestType": "usageUpload",
"clusterId": "4b0917dd-e003-480e-ae74-1a8bb5e36b5d",
"name": "DataControllerTestName",
"subscriptionId": "aaaa0a0a-bb1b-cc2c-dd3d-eeeeee4e4e4e",
"resourceGroup": "production-resources",
"location": "eastus",
"uploadRequest": {
"exportType": "usages",
"dataTimestamp": "2020-06-17T22:32:24Z",
"data": "[{\"name\":\"sqlInstance001\",
\"namespace\":\"arc\",
\"type\":\"<resource type>\",
\"eventSequence\":1,
\"eventId\":\"50DF90E8-FC2C-4BBF-B245-CB20DC97FF24\",
\"startTime\":\"2020-06-17T19:11:47.7533333\",
\"endTime\":\"2020-06-17T19:59:00\",
\"quantity\":1,
\"id\":\"4BC3DC6B-9148-4C7A-B7DC-01AFC1EF5373\"}]",
"signature":"MIIE7gYJKoZIhvcNAQ...2xXqkK"
}
}
Chargez les données d’utilisation à l’aide de la commande
upload.az arcdata dc upload --path usage.json
Upload frequency
In the indirect mode, usage information needs to be uploaded to Azure at least once in every 30 days. Il est vivement recommandé de charger plus fréquemment, par exemple tous les jours. Si les informations d’utilisation ne sont pas chargées au cours des 32 derniers jours, vous constaterez une certaine dégradation dans le service, par exemple l’impossibilité d’approvisionner de nouvelles ressources.
Il y aura deux types de notifications pour les chargements différés d’utilisation : la phase d’avertissement et la phase détériorée. Dans la phase d’avertissement, un message ressemblant au message suivante s’affichera Billing data for the Azure Arc data controller has not been uploaded in {0} hours. Please upload billing data as soon as possible..
Dans la phase détériorée, le message ressemble au message suivant Billing data for the Azure Arc data controller has not been uploaded in {0} hours. Some functionality will not be available until the billing data is uploaded..
Note
Le message d’avertissement s’affiche si l’utilisation n’a pas été chargée depuis plus de 48 heures.
La page Vue d’ensemble du portail Azure pour le contrôleur de données et l’état des ressources personnalisées du contrôleur de données dans votre cluster Kubernetes indiquent à la fois la dernière date de chargement et le ou les messages d’état.
Automatisation des chargements (facultatif)
Si vous souhaitez charger les métriques et les journaux sur une base planifiée, vous pouvez créer un script et l’exécuter sur la base d’un minuteur toutes les quelques minutes. Voici un exemple d’automatisation des chargements à l’aide d’un script de shell Linux.
Dans votre éditeur de texte ou de code, ajoutez ce qui suit au script dans le fichier, puis enregistrez-le en tant que fichier exécutable de script, tel que .sh (Linux/Mac) ou .cmd, .bat ou .ps1.
az arcdata dc export --type usage --path usage.json --force --k8s-namespace <namespace> --use-k8s
az arcdata dc upload --path usage.json
Rendre le fichier de script exécutable
chmod +x myuploadscript.sh
Exécutez le script tous les jours pour l’utilisation :
watch -n 1200 ./myuploadscript.sh
Vous pouvez également utiliser un planificateur de travaux comme cron ou le Planificateur de tâches Windows ou encore un orchestrateur comme Ansible, Puppet ou Chef.
Related content
Charger les métriques sur Azure Monitor
Charger les journaux sur Azure Monitor
Charger des données de facturation dans Azure et les afficher dans le portail Azure
Afficher la ressource Azure Arc Data Controller dans Portail Azure