Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cet article fournit un aperçu de la table du système d'utilisation facturable, comprenant le schéma et des exemples de requêtes. Avec les tables système, les données d’utilisation facturables de votre compte sont centralisées et routées vers toutes les régions. Vous pouvez donc afficher l’utilisation globale de votre compte à partir de la région dans laquelle se trouve votre espace de travail.
Pour plus d’informations sur l’utilisation de ce tableau pour surveiller les coûts et les exemples de requêtes, consultez Surveiller les coûts à l’aide de tables système.
Chemin d’accès de la table : cette table système se trouve à l’emplacement system.billing.usage.
Schéma du tableau d'utilisation facturable
La table système des utilisations facturables utilise le schéma suivant :
| Nom de colonne | Type de données | Description | Example |
|---|---|---|---|
record_id |
string | ID unique pour cet enregistrement d’utilisation | 11e22ba4-87b9-4cc2-9770-d10b894b7118 |
account_id |
string | ID du compte pour lequel ce rapport a été généré | 23e22ba4-87b9-4cc2-9770-d10b894b7118 |
workspace_id |
string | ID de l’espace de travail associé à cette utilisation | 1234567890123456 |
sku_name |
string | Nom du SKU | STANDARD_ALL_PURPOSE_COMPUTE |
cloud |
string | Cloud associé à cette utilisation. Les valeurs possibles sont AWS, AZURE et GCP. |
AWS, AZURE ou GCP |
usage_start_time |
timestamp | L’heure de début pertinente pour cet enregistrement d’utilisation. Les informations de fuseau horaire sont enregistrées à la fin de la valeur, où +00:00 représente le fuseau horaire UTC. |
2023-01-09 10:00:00.000+00:00 |
usage_end_time |
timestamp | L’heure de fin pertinente pour cet enregistrement d’utilisation. Les informations de fuseau horaire sont enregistrées à la fin de la valeur, où +00:00 représente le fuseau horaire UTC. |
2023-01-09 11:00:00.000+00:00 |
usage_date |
date | Date de l'enregistrement d'utilisation, ce champ peut être utilisé pour une agrégation plus rapide par date | 2023-01-01 |
custom_tags |
map | Balises personnalisées associées à l’enregistrement d’utilisation | { “env”: “production” } |
usage_unit |
string | Unité dans laquelle cette utilisation est mesurée | DBU |
usage_quantity |
decimal | Nombre d’unités consommées pour cet enregistrement | 259.2958 |
usage_metadata |
struct | Métadonnées fournies par le système sur l'utilisation, y compris les ID des ressources de calcul et des tâches (le cas échéant). Consultez les métadonnées d’utilisation. | Afficher les métadonnées d’utilisation |
identity_metadata |
struct | Métadonnées fournies par le système sur les identités impliquées dans l’utilisation. Voir Métadonnées d’identité. | Voir les métadonnées d’identité |
record_type |
string | Indique si l’enregistrement est original, une rétraction ou une réitération. La valeur est ORIGINAL sauf si l’enregistrement est lié à une correction. Voir Type d’enregistrement. |
ORIGINAL |
ingestion_date |
date | Date à laquelle l’enregistrement a été ingéré dans la usage table |
2024-01-01 |
billing_origin_product |
string | Produit à l’origine de l’utilisation. Certains produits peuvent être facturés comme références SKU différentes. Pour connaître les valeurs possibles, consultez Product. | JOBS |
product_features |
struct | Détails sur les fonctionnalités de produit spécifiques utilisées. Consultez les fonctionnalités du produit. | Voir les fonctionnalités du produit |
usage_type |
string | Type d’utilisation attribué au produit ou à la charge de travail à des fins de facturation. Les valeurs possibles sont COMPUTE_TIME, STORAGE_SPACENETWORK_BYTENETWORK_HOURAPI_OPERATIONTOKENGPU_TIME, ou .ANSWER |
STORAGE_SPACE |
Référence de métadonnées d’utilisation
Les valeurs incluses usage_metadata sont toutes les chaînes qui vous indiquent les objets et ressources de l’espace de travail impliqués dans l’enregistrement d’utilisation.
Seul un sous-ensemble de ces valeurs est rempli dans un enregistrement d’utilisation donné, en fonction du type de calcul et des fonctionnalités utilisés. La troisième colonne du tableau indique quels types d’utilisation entraînent le remplissage de chaque valeur.
| Value | Description | Renseigné pour (sinon null) |
|---|---|---|
cluster_id |
ID du cluster associé à l’enregistrement d’utilisation | Utilisation de ressources informatiques non-sans-serveur, notamment les notebooks, les travaux, les pipelines déclaratifs Spark Lakeflow et le service des modèles hérités |
job_id |
ID de la tâche associée au registre d’utilisation | Les travaux serverless et les travaux exécutés sur l’infrastructure de calcul dédiée aux travaux (ne s’appliquent pas aux travaux exécutés sur un calcul à usage général) |
warehouse_id |
ID de l’entrepôt SQL associé à l’enregistrement d’utilisation | Les charges de travail s’exécutent sur un entrepôt SQL |
instance_pool_id |
ID du pool d’instances associé à l’enregistrement d’utilisation | Utilisation de calcul non-sans-serveur à partir de pools, notamment des notebooks, des travaux, des pipelines déclaratifs Spark Lakeflow et la mise en service de modèles hérités |
node_type |
Type d’instance de la ressource de calcul | Utilisation du calcul non sans serveur, notamment des notebooks, des tâches, des pipelines déclaratifs Spark Lakeflow et de tous les entrepôts SQL. |
job_run_id |
ID de l’exécution de travail associée à l’enregistrement d’utilisation | Les travaux serverless et les travaux exécutés sur l’infrastructure de calcul dédiée aux travaux (ne s’appliquent pas aux travaux exécutés sur un calcul à usage général) |
notebook_id |
ID du notebook associé à l’utilisation | Notebooks sans serveur |
dlt_pipeline_id |
ID du pipeline associé à l’enregistrement d’utilisation | Pipelines déclaratifs Lakeflow Spark et fonctionnalités qui utilisent ces pipelines, telles que des vues matérialisées, des tables en ligne, l'indexation de recherche vectorielle et Lakeflow Connect. |
endpoint_name |
Nom du point de terminaison de service du modèle ou du point de terminaison de recherche vectorielle associé à l’enregistrement d’utilisation | Service de modèle et recherche vectorielle |
endpoint_id |
ID du point de terminaison de service du modèle ou du point de terminaison de recherche vectorielle associé à l’enregistrement d’utilisation | Service de modèle et recherche vectorielle |
dlt_update_id |
ID de la mise à jour du pipeline associée à l’enregistrement d’utilisation | Pipelines déclaratifs Lakeflow Spark et fonctionnalités qui utilisent ces pipelines, telles que des vues matérialisées, des tables en ligne, l'indexation de recherche vectorielle et Lakeflow Connect. |
dlt_maintenance_id |
ID des tâches de maintenance de pipeline associées à l’enregistrement d’utilisation | Pipelines déclaratifs Lakeflow Spark et fonctionnalités qui utilisent ces pipelines, telles que des vues matérialisées, des tables en ligne, l'indexation de recherche vectorielle et Lakeflow Connect. |
metastore_id |
Cette valeur n’est pas remplie dans Azure Databricks | Toujours null |
run_name |
Nom unique accessible par l’utilisateur de l’exécution de fine-tuning du modèle de base associé à l’enregistrement d’utilisation | Réglage précis du modèle de base |
job_name |
Nom donné par l’utilisateur de la tâche associée à l’enregistrement d'utilisation | Les travaux s’exécutent sur le calcul serverless |
notebook_path |
Chemin de stockage de l’espace de travail du notebook associé à l’utilisation | Les notebooks s'exécutent sur un système informatique sans serveur |
central_clean_room_id |
ID de la salle propre centrale associée à l’enregistrement d’utilisation | Salles blanches |
source_region |
Région de l’espace de travail associé à l’utilisation. Ne renvoie une valeur que pour l'utilisation liée au réseautage sans serveur. | Mise en réseau sans serveur |
destination_region |
Région de la ressource accessible. Ne renvoie une valeur que pour l'utilisation liée au réseautage sans serveur. | Mise en réseau sans serveur |
app_id |
ID de l’application associée à l’enregistrement d’utilisation | Databricks Apps |
app_name |
Nom donné par l’utilisateur de l’application associée à l’enregistrement d’utilisation | Databricks Apps |
private_endpoint_name |
Nom du point de terminaison privé applicable déployé avec le calcul serverless | Mise en réseau sans serveur |
budget_policy_id |
ID de la stratégie de budget serverless attachée à la charge de travail | Utilisation du calcul serverless, y compris les blocs-notes, les travaux, les pipelines déclaratifs Spark Lakeflow et les endpoints de service de modèles |
storage_api_type |
Type d’opération effectuée sur le stockage par défaut. Les valeurs possibles sont TIER_1 (PUT, COPY, POST, LIST) et TIER_2 (autres opérations) |
Stockage par défaut |
ai_runtime_workload_id |
ID de la charge de travail GPU sans serveur liée à l'enregistrement d'utilisation | Travaux GPU sans serveur |
uc_table_catalog |
Nom du catalogue Unity associé à l’enregistrement d’utilisation | Vues matérialisées |
uc_table_schema |
Nom du schéma du catalogue Unity associé à l’enregistrement d’utilisation | Vues matérialisées |
uc_table_name |
Nom de la table du catalogue Unity associée à l’enregistrement d’utilisation | Vues matérialisées |
database_instance_id |
ID de l’instance de base de données associée à l’enregistrement d’utilisation | Instances de base de données Lakebase |
sharing_materialization_id |
Identifiant de la matérialisation de partage associée aux données d'utilisation | Partager des vues, des vues matérialisées et des tables de streaming via Delta Sharing |
usage_policy_id |
ID de la stratégie d’utilisation associée à l’enregistrement d’utilisation | Stratégies d’utilisation |
agent_bricks_id |
ID de la charge de travail des modules de l'agent associée à l'enregistrement d'utilisation | Charges de travail Agent Bricks |
base_environment_id |
ID de l’environnement de base associé à l’utilisation | Utilisation de la création ou de l’actualisation de l’environnement de base serverless d’un espace de travail. Quand billing_origin_product est BASE_ENVIRONMENTS, il est rempli. |
Référence de métadonnées d’identité
La identity_metadata colonne fournit plus d’informations sur les identités impliquées dans l’utilisation.
- Le champ
run_asenregistre qui a exécuté la charge de travail. Ces valeurs sont remplies uniquement pour certains types de charge de travail répertoriés dans le tableau ci-dessous. - Le
owned_bychamp s’applique uniquement à l’utilisation de SQL Warehouse et enregistre l’utilisateur ou le principal de service propriétaire de l’entrepôt SQL responsable de l’utilisation.
- Le
created_bychamp s’applique à Databricks Apps and Agent Bricks et enregistre l’e-mail de l’utilisateur qui a créé l’application ou l’agent.
identités run_as
L’identité enregistrée dans identity_metadata.run_as dépend du produit associé à l’utilisation. Référencez le tableau suivant pour le comportement identity_metadata.run_as :
| Type de charge de travail | Identité de run_as |
|---|---|
| Calcul des travaux | L’utilisateur ou le principal de service défini dans le paramètre run_as. Par défaut, les tâches s’exécutent sous l’identité du propriétaire de la tâche, mais les administrateurs peuvent la modifier pour un autre utilisateur ou une principale de service. |
| Calcul serverless pour les travaux | L’utilisateur ou le principal de service défini dans le paramètre run_as. Par défaut, les tâches s’exécutent sous l’identité du propriétaire de la tâche, mais les administrateurs peuvent la modifier pour un autre utilisateur ou une principale de service. |
| Calcul serverless pour les notebooks | Utilisateur qui a exécuté les commandes du notebook (en particulier, l’utilisateur qui a créé la session de notebook). Pour les notebooks partagés, cela inclut l’utilisation par d’autres utilisateurs partageant la même session de notebook. |
| Pipelines déclaratifs Lakeflow Spark | Utilisateur ou principal de service dont les autorisations sont utilisées pour exécuter le pipeline. Cela peut être modifié en transférant la propriété du pipeline. |
| Réglage précis du modèle de base | L’utilisateur ou le principal de service à l’origine de l’exécution de fine-tuning de l’apprentissage. |
| Optimisation prédictive | Le principal service qui appartient à Databricks et qui exécute les opérations d’optimisation prédictive. |
| Surveillance de la qualité des données | Utilisateur qui a créé le profil. |
Référence du type d’enregistrement
Le tableau billing.usage prend en charge les corrections. Les corrections se produisent quand un champ de l’enregistrement d’utilisation est incorrect et doit être corrigé.
Lorsqu’une correction se produit, Azure Databricks ajoute deux nouveaux enregistrements à la table. Un enregistrement de rétraction annule l’enregistrement incorrect d’origine, puis un enregistrement de reformulation inclut les informations corrigées. Les enregistrements de correction sont identifiés à l’aide du champ record_type :
-
RETRACTION: utilisé pour négation de l’utilisation incorrecte d’origine. Tous les champs sont identiques à l’enregistrementORIGINAL, à l’exception deusage_quantity, valeur négative qui annule la quantité d’utilisation d’origine. Par exemple, si la quantité d’utilisation de l’enregistrement d’origine était259.4356, l’enregistrement de retrait aurait une quantité d’utilisation de-259.4356. -
RESTATEMENT: enregistrement qui inclut les champs corrects et la quantité d’utilisation.
Par exemple, la requête suivante retourne la quantité d’utilisation horaire correcte liée à un job_id, même si des corrections ont été apportées. En agrégeant la quantité d’utilisation, l’enregistrement de retrait annule l’enregistrement d’origine et seules les valeurs du restatément sont retournées.
SELECT
usage_metadata.job_id, usage_start_time, usage_end_time,
SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0
Note
Pour les corrections où l’enregistrement d'utilisation d'origine n'aurait pas dû être enregistré, une correction ne peut ajouter qu'un enregistrement de rétractation et aucun enregistrement de réitération.
Référence du produit à l'origine de la facturation
Certains produits Databricks sont facturés sous la même référence SKU partagée. Par exemple, la surveillance de la qualité des données, l’optimisation prédictive et les flux de travail sans serveur sont tous facturés sous la même référence produit SKU de travaux sans serveur.
Pour vous aider à différencier l’utilisation, les colonnes billing_origin_product et product_features fournissent plus d’informations sur le produit et les fonctionnalités spécifiques associés à l’utilisation.
La colonne billing_origin_product affiche le produit Databricks associé à l’enregistrement d’utilisation. Les valeurs incluent :
| Value | Description |
|---|---|
JOBS |
Coûts associés aux workloads Lakeflow Jobs |
DLT |
Coûts associés aux charges de travail des pipelines déclaratifs Lakeflow Spark |
SQL |
Coûts associés à Databricks SQL, y compris les charges de travail exécutées sur des entrepôts SQL et des vues matérialisées |
ALL_PURPOSE |
Coûts associés au calcul à usage universel classique |
MODEL_SERVING |
Coûts associés au service de modèle d’IA Mosaïque |
INTERACTIVE |
Coûts associés aux charges de travail interactives sans serveur |
DEFAULT_STORAGE |
Coûts associés au stockage par défaut |
VECTOR_SEARCH |
Coûts associés à la recherche vectorielle |
LAKEHOUSE_MONITORING |
Coûts associés à la surveillance de la qualité des données |
PREDICTIVE_OPTIMIZATION |
Coûts associés à l’optimisation prédictive |
ONLINE_TABLES |
Coûts associés aux tables en ligne (ancienne version) |
FOUNDATION_MODEL_TRAINING |
Coûts associés à l’optimisation fine du modèle Foundation |
AGENT_EVALUATION |
Coûts associés à l’évaluation de l’agent |
FINE_GRAINED_ACCESS_CONTROL |
Utilisation sans serveur du contrôle d’accès détaillé sur le calcul dédié |
BASE_ENVIRONMENTS |
Utilisation associée à la création ou à l’actualisation de l’environnement de base serverless d’un espace de travail |
DATA_CLASSIFICATION |
Coûts associés aux opérations de classification des données |
DATA_QUALITY_MONITORING |
Coûts associés à la surveillance de la qualité des données, y compris la détection des anomalies et le profilage des données |
AI_GATEWAY |
Coûts associés à l’utilisation de la passerelle IA |
AI_RUNTIME |
Coûts associés aux charges de travail GPU sans serveur |
NETWORKING |
Coûts associés à la connexion du calcul serverless à vos ressources via des points de terminaison privés. Concernant l’utilisation de NETWORKING, workspace_id est null, usage_unit est hour, et networking.connectivity_type est PRIVATE_IP. |
APPS |
Coûts associés à la création et à l’exécution des applications Databricks |
DATABASE |
Coûts associés aux instances de base de données Lakebase |
AI_FUNCTIONS |
Coûts associés à l’utilisation d’AI Functions . Ce produit enregistre uniquement l’utilisation de la fonction AI_PARSE_DOCUMENT . |
AGENT_BRICKS |
Coûts associés aux charges de travail Agent Bricks |
CLEAN_ROOM |
Coûts associés aux flux de travail des salles propres |
LAKEFLOW_CONNECT |
Coûts associés aux connecteurs managés Lakeflow Connect |
Référence des fonctionnalités du produit
La colonne product_features est un objet contenant des informations sur les fonctionnalités de produit spécifiques utilisées et inclut les paires clé/valeur suivantes :
| Terrain | Description |
|---|---|
jobs_tier |
Les valeurs incluent LIGHT, CLASSICou null |
sql_tier |
Les valeurs incluent CLASSIC, PROou null |
dlt_tier |
Les valeurs incluent CORE, , PROADVANCEDounull |
is_serverless |
Les valeurs incluent true ou false, ou null (la valeur est true ou false lorsque vous pouvez choisir entre le calcul serverless et le calcul classique, sinon elle est null) |
is_photon |
Les valeurs incluent true ou false, ou null |
serving_type |
Les valeurs incluent MODEL, , GPU_MODELFOUNDATION_MODEL, FEATUREounull |
offering_type |
Les valeurs incluent BATCH_INFERENCE ou null |
performance_target |
Indique le mode de performance de la tâche ou du pipeline serverless. Les valeurs incluent PERFORMANCE_OPTIMIZED, STANDARDou null. Les charges de travail sans serveur ont une null valeur. |
ai_runtime.compute_type |
Indique le type de calcul pour les charges de travail GPU serverless ou null |
model_serving.offering_type |
Indique le type d’offre pour le service de modèle ou null |
ai_gateway.feature_type |
Indique le type de fonctionnalité pour les charges de travail AI Gateway ou null |
serverless_gpu.workload_type |
Indique le type de charge de travail pour le calcul sans serveur de GPU ou null |
ai_functions.ai_function |
Indique le type de fonction IA ou null |
networking.connectivity_type |
Les valeurs incluent PUBLIC_IP et PRIVATE_IP |
agent_bricks.problem_type |
Indique le type de problème pour les charges de travail de l'Agent Bricks. Les valeurs incluent AGENT_BRICKS_KNOWLEDGE_ASSISTANT ou null |
agent_bricks.workload_type |
Indique le type de charge de travail pour Agent Bricks. Les valeurs incluent AGENT_BRICKS_REAL_TIME_INFERENCE ou null |