Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Chaque expérience au sein de Microsoft Fabric prend en charge des opérations uniques. Le taux de consommation d’une opération est ce qui convertit l’utilisation des indicateurs de performance bruts de l’expérience en unités de calcul (CU).
La page de calcul de l’application Métriques de capacité Microsoft Fabric fournit une vue d’ensemble des performances de votre capacité et répertorie les opérations Fabric qui consomment des ressources de calcul.
Cet article répertorie ces opérations par expérience et explique comment elles consomment des ressources dans Fabric.
Opérations interactives et en arrière-plan
Microsoft Fabric divise les opérations en deux types, interactifs et en arrière-plan. Cet article répertorie ces opérations et explique la différence entre ces opérations.
Opérations interactives
Les requêtes et opérations à la demande qui peuvent être déclenchées par des interactions utilisateur avec l’interface utilisateur, telles que les requêtes de modèle de données générées par des visuels de rapport, sont classées comme des opérations interactives . Elles sont généralement déclenchées par des interactions des utilisateurs avec l’interface utilisateur (IU). Par exemple, une opération interactive est déclenchée lorsqu’un utilisateur ouvre un rapport ou sélectionne un segment dans un rapport Power BI. Les opérations interactives peuvent également être déclenchées sans interaction avec l’interface utilisateur, par exemple lors de l’utilisation de SQL Server Management Studio (SSMS) ou d’une application personnalisée pour exécuter une requête DAX.
Opérations en arrière-plan
Les opérations d’exécution plus longues telles que le modèle sémantique ou les actualisations de flux de données sont classées comme des opérations en arrière-plan . Elles peuvent être déclenchées manuellement par un utilisateur ou automatiquement sans intervention de l’utilisateur. Les opérations d’arrière-plan incluent les actualisations planifiées, les actualisations interactives, les actualisations basées sur REST et les opérations d’actualisation basées sur XMLA. Les utilisateurs ne sont pas censés attendre la fin de ces opérations. Au lieu de cela, ils peuvent revenir ultérieurement pour vérifier l’état des opérations.
Guide pratique pour lire ce document
Chaque expérience a une table qui répertorie ses opérations, avec les colonnes suivantes :
Opération : nom de l’opération. Visible dans l’application Microsoft Fabric Capacity Metrics.
Description : description de l’opération.
Élément : élément auquel cette opération peut s’appliquer. Visible dans l’application Microsoft Fabric Capacity Metrics.
Compteur de facturation Azure : Le nom du compteur sur votre facture Azure qui affiche l’utilisation de cette opération.
Type : répertorie le type de l’opération. Les opérations sont classées comme des opérations interactives ou en arrière-plan .
Lorsque des informations supplémentaires sur le taux de consommation sont disponibles, un lien vers le document contenant ces informations est fourni.
Opérations Fabric par expérience
Cette section est divisée en expérience Fabric. Chaque expérience disposait d’une table qui répertorie ses opérations.
Important
Les taux de consommation sont susceptibles de changer à tout moment. Microsoft utilisera des efforts raisonnables pour fournir une notification par e-mail ou par le biais d’une notification dans le produit. Les modifications seront effectives à la date indiquée dans les notes de publication de Microsoft ou le blog Microsoft Fabric. Si une modification apportée à un taux de consommation de charge de travail Microsoft Fabric augmente matériellement les unités de capacité requises pour utiliser une charge de travail particulière, les clients peuvent utiliser les options d’annulation disponibles pour le mode de paiement choisi.
Copilot dans Fabric
Les opérations Copilot sont répertoriées dans cette table. Vous trouverez les taux de consommation de Copilot dans Copilotconsommation.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Copilot dans Fabric | Coût de calcul associé aux requêtes d'entrée et à l'achèvement des sorties | Multiple | Copilot et l’IA | Background |
Agent de données dans Fabric
Les opérations de l’agent de données sont répertoriées dans ce tableau. Dans la matrice de l’application de métriques par élément et table d’opérations, les opérations de l’agent de données sont répertoriées sous le type d’élément LlmPlugin .
Vous trouverez les taux de consommation de l’agent de données dans la consommation de l’agent de données.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Requête IA | Coût de calcul associé aux requêtes d'entrée et à l'achèvement des sorties | LlmPlugin | Copilot et l’IA | Background |
Data Factory
L’expérience Data Factory contient des opérations pour dataflows Gen2 et pipelines.
Flux de données Gen2
Vous trouverez les taux de consommation des flux de données Gen2 dans la tarification des flux de données Gen2 pour Data Factory dans Microsoft Fabric.
Note
Depuis octobre 2025, le nom de l’opération Dataflow Gen2 Refresh a été renommé En requêtes d’exécution Dataflow Gen2.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Requêtes d'exécution de Dataflow Gen2 | Coût de calcul associé à l’opération d’évaluation de dataflow Gen2 | Dataflow Gen2 | Utilisation de capacité de calcul standard dans les flux de données en CU | Background |
| Calcul de flux de données à grande échelle - Requête de point de terminaison SQL | Utilisation liée au point de terminaison SQL de l’entrepôt de préproduction Dataflow Gen2 | Warehouse | Utilisation de capacité de calcul dans les flux de données à grande échelle en CU | Background |
Pipelines
Vous trouverez les tarifs de consommation des pipelines dans la tarification de Pipelines pour Data Factory dans Microsoft Fabric.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| DataMovement | Durée utilisée par l’activité de copie dans un pipeline Data Factory divisé par le nombre d’unités d’intégration de données | Pipeline | Unité de capacité pour l’utilisation de capacité dans le déplacement des données | Background |
| ActivityRun | Exécution d’une activité de pipeline Data Factory | Pipeline | Utilisation de capacité d’orchestration des données en CU | Background |
Databases
Une unité de capacité Fabric = 0,383 vCores de base de données SQL.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Utilisation de SQL | Calcul pour toutes les requêtes SQL générées par l’utilisateur et générées par le système, les modifications et les opérations de traitement des données au sein d’une base de données | Database | Base de données SQL dans Microsoft Fabric Capacity Usage CU | Interactive |
| Stockage SQL alloué | Espace de stockage alloué dynamiquement pour une base de données SQL dans Fabric, utilisé pour stocker des tables, des index, des journaux de transactions et des métadonnées. Entièrement intégré à OneLake. | Database | Données de stockage SQL stockées | Background |
Data Warehouse
Un cœur Fabric Data Warehouse (unité de calcul pour Data Warehouse) équivaut à deux Fabric Capacity Units (CU).
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Requête d’entrepôt | Frais de calcul pour toutes les instructions T-SQL générées par l’utilisateur et le système dans un entrepôt | Warehouse | Utilisation de la capacité de l’entrepôt de données CU | Background |
| Requête de point de terminaison SQL | Frais de calcul pour toutes les instructions T-SQL générées par l’utilisateur et le système dans le point de terminaison d’analytique SQL d’un Lakehouse | Warehouse | Utilisation de la capacité de l’entrepôt de données CU | Background |
API Fabric pour GraphQL
Les opérations GraphQL sont constituées de requêtes effectuées sur des éléments de l’API pour GraphQL par les clients de l’API. Tous les temps de traitement d’opération de requête et de réponse de GraphQL sont signalés en unités de capacité (CU) en secondes au taux de dix CU par heure.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Query | Frais de calcul pour toutes les requêtes (lectures) et mutations (écritures) GraphQL générées par les clients au sein d’une API GraphQL | GraphQL | API pour l’utilisation de la capacité de requête GraphQL en CU | Interactive |
Fonctions de données utilisateur Fabric
Les opérations Fonctions de données utilisateur de Fabric sont constituées de requêtes lancées par le portail Fabric, d’autres artefacts Fabric ou des applications clientes. Chaque opération entraîne des frais pour l’exécution de la fonction, le stockage interne des métadonnées de fonction dans OneLake et les opérations de lecture et d’écriture associées dans OneLake.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Exécution des fonctions de données utilisateur | Frais de calcul pour l’exécution de la fonction à l’intérieur de l’élément Fonctions de données utilisateur. Cette opération résulte de l’exécution d’une fonction après une requête du portail Fabric, d’un autre élément Fabric ou d’une application externe. | Fonctions de données utilisateur | Exécution de la fonction de données utilisateur (CU/s) | Interactive |
| Test du portail des fonctions de données utilisateur | Frais de calcul pour l’exécution d'un test d’une fonction à l’intérieur de l’élément User Data Functions. Cette opération résulte du test d’une fonction en mode « Développer » pendant une session de test. La session de test a une durée minimale de 15 minutes. | Fonctions de données utilisateur | Exécution de la fonction de données utilisateur (CU/s) | Interactive |
| Stockage statique des fonctions de données utilisateur | Stockage statique des métadonnées de fonction interne dans un compte OneLake géré par le service. Cette opération est calculée avec la taille compressée des métadonnées de l’élément Fonctions de données utilisateur. Il s’agit du coût de la création d’éléments des fonctions de données utilisateur, même s’ils ne sont pas utilisés. | Stockage OneLake | Stockage OneLake | Background |
| Lecture du stockage statique des fonctions de données utilisateur | Lecture de l’opération des métadonnées de fonction interne stockées dans un compte OneLake géré par le service. Cette opération est exécutée chaque fois qu’une fonction est exécutée après une période d’inactivité. | Opérations de lecture de OneLake | Opérations de lecture de OneLake | Background |
| Écriture du stockage statique des fonctions de données utilisateur | Écrit et met à jour les métadonnées de fonction interne stockées dans un compte OneLake géré par le système. Cette opération est exécutée chaque fois que l’élément Fonctions de données utilisateur est publié. | Opérations d’écriture OneLake | Opérations d’écriture OneLake | Background |
| Lecture itérative du stockage statique des fonctions de données utilisateur | Lit les opérations pour les métadonnées de fonction interne stockées dans un compte OneLake géré par le service. Cette opération est exécutée chaque fois que les fonctions de données utilisateur sont répertoriées. | Opérations de lecture itérative OneLake | Opérations de lecture itérative OneLake | Background |
| Fonctions de données utilisateur Stockage statique Autres opérations | Opérations de stockage relatives à différentes métadonnées de fonction dans un compte OneLake géré par le service. | OneLake Autres opérations | OneLake Autres opérations | Background |
Point de terminaison du modèle ML
Les documents relatifs aux points de terminaison des modèles ML vous permettent de traiter sans interruption les prédictions en temps réel. En coulisses, Fabric déploie et gère l’infrastructure de conteneur sous-jacente pour et héberger votre modèle.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Point de terminaison de modèle | TBD | Modèle ML | Capacité d'utilisation du point de terminaison du modèle ML CU | Background |
OneLake
Les opérations de calcul One Lake représentent les transactions effectuées sur les éléments One Lake. Le taux de consommation pour chaque opération varie en fonction de son type. Pour plus d’informations, reportez-vous à consommation de One Lake.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Lecture OneLake via la redirection | Lecture OneLake via la redirection | Multiple | Utilisation de capacité des opérations de lecture OneLake en CU | Background |
| Lecture OneLake via le proxy | Lecture OneLake via le proxy | Multiple | Utilisation de capacité des opérations de lecture OneLake via une API en CU | Background |
| Écriture OneLake via la redirection | Écriture OneLake via la redirection | Multiple | Utilisation de capacité des opérations d’écriture OneLake en CU | Background |
| Écriture OneLake via le proxy | Écriture OneLake via le proxy | Multiple | Utilisation de capacité des opérations d’écriture OneLake via une API en CU | Background |
| Écriture itérative OneLake via la redirection | Écriture itérative OneLake via la redirection | Multiple | Opérations d’écriture itérative OneLake | Background |
| Lecture itérative OneLake via Redirect | Lecture itérative OneLake via Redirect | Multiple | Utilisation de capacité des opérations de lecture itérative OneLake en CU | Background |
| OneLake Autres opérations | OneLake Autres opérations | Multiple | Utilisation de capacité des autres opérations OneLake en CU | Background |
| Autres opérations OneLake via la redirection | Autres opérations OneLake via la redirection | Multiple | Utilisation de capacité des autres opérations OneLake via une API en CU | Background |
| Écriture itérative de OneLake via Proxy | Écriture itérative de OneLake via Proxy | Multiple | Utilisation de capacité des opérations d’écriture itérative OneLake via une API en CU | Background |
| Lecture itérative OneLake via le proxy | Lecture itérative OneLake via le proxy | Multiple | Utilisation de capacité des opérations de lecture itérative OneLake via une API en CU | Background |
| Lecture BCDR OneLake via le proxy | Lecture BCDR OneLake via le proxy | Multiple | Utilisation de capacité des opérations de lecture BCDR OneLake via une API en CU | Background |
| Écriture BCDR OneLake via le proxy | Écriture BCDR OneLake via le proxy | Multiple | Utilisation de capacité des opérations d’écriture BCDR OneLake via une API en CU | Background |
| Lecture BCDR OneLake via la redirection | Lecture BCDR OneLake via la redirection | Multiple | Utilisation de capacité des opérations de lecture BCDR OneLake en CU | Background |
| Écriture BCDR OneLake via la redirection | Écriture BCDR OneLake via la redirection | Multiple | Utilisation de capacité des opérations d’écriture BCDR OneLake en CU | Background |
| Lecture itérative de OneLake BCDR via le proxy | Lecture itérative de OneLake BCDR via le proxy | Multiple | Utilisation de capacité des opérations de lecture itérative BCDR OneLake via une API en CU | Background |
| Lecture itérative de OneLake BCDR via la redirection | Lecture itérative de OneLake BCDR via la redirection | Multiple | Utilisation de capacité des opérations de lecture itérative BCDR OneLake en CU | Background |
| Écriture itérative de OneLake BCDR via le proxy | Écriture itérative de OneLake BCDR via le proxy | Multiple | Utilisation de capacité des opérations d’écriture itérative BCDR OneLake via une API en CU | Background |
| Écriture itérative OneLake BCDR via la redirection | Écriture itérative OneLake BCDR via la redirection | Multiple | Utilisation de capacité des opérations d’écriture itérative BCDR OneLake en CU | Background |
| OneLake BCDR Autres opérations | OneLake BCDR Autres opérations | Multiple | Utilisation de capacité des autres opérations BCDR OneLake en CU | Background |
| OneLake BCDR Autres opérations via la redirection | OneLake BCDR Autres opérations via la redirection | Multiple | Utilisation de capacité des autres opérations BCDR OneLake via une API en CU | Background |
Power BI
L’utilisation de chaque opération est signalée en temps de traitement CU en secondes. Huit processeurs sont équivalents à un cœur virtuel Power BI.
Note
Le terme modèle sémantique remplace le terme jeu de données. Vous pouvez toujours voir l’ancien terme dans l’interface utilisateur jusqu’à ce qu’il soit complètement remplacé.
Actuellement, nous ne facturons pas les visuels R/Py dans Power BI.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Intelligence artificielle (IA) | Évaluation des fonctions d’IA | AI | Utilisation de capacité Power BI en CU | Interactive |
| Requête en arrière-plan | Requêtes pour actualiser les vignettes et créer des instantanés de rapports | Modèle sémantique | Utilisation de capacité Power BI en CU | Background |
| Dataflow DirectQuery | Se connecter directement à un flux de données sans avoir à importer les données dans un modèle sémantique | Dataflow Gen1 | Utilisation de capacité Power BI en CU | Interactive |
| Actualisation du flux de données | Actualisation planifiée du flux de données en arrière-plan à la demande, effectuée par le service ou avec des API REST. | Dataflow Gen1 | Utilisation de capacité Power BI en CU | Background |
| Actualisation à la demande du modèle sémantique | Actualisation d’un modèle sémantique en arrière-plan à l’initiative de l’utilisateur, à l’aide du service, des API REST ou des points de terminaison publics XMLA | Modèle sémantique | Utilisation de capacité Power BI en CU | Background |
| Actualisation planifiée du modèle sémantique | Actualisation planifiée du modèle sémantique en arrière-plan, effectuée par le service, les API REST ou les points de terminaison XMLA publics | Modèle sémantique | Utilisation de capacité Power BI en CU | Background |
| Abonnement par e-mail au rapport complet | Copie PDF ou PowerPoint d’un rapport Power BI entier, attachée à un abonnement par e-mail | Report | Utilisation de capacité Power BI en CU | Background |
| Requête interactive | Requêtes initiées par une demande de données à la demande. Par exemple, le chargement d’un modèle lors de l’ouverture d’un rapport, l’interaction utilisateur avec un rapport ou l’interrogation d’un jeu de données avant le rendu. Le chargement d’un modèle sémantique peut être signalé comme une opération de requête interactive autonome. | Modèle sémantique | Utilisation de capacité Power BI en CU | Interactive |
| PublicApiExport | Rapport Power BI exporté avec l'API REST exporter le rapport vers un fichier | Report | Utilisation de capacité Power BI en CU | Background |
| Render | Rapport paginé Power BI exporté à l'aide de l'API REST exporter le rapport paginé vers un fichier | Rapport paginé | Utilisation de capacité Power BI en CU | Background |
| Render | Un rapport Power BI paginé affiché dans le service Power BI | Rapport paginé | Utilisation de capacité Power BI en CU | Interactive |
| Lecture de la modélisation web | Opération de lecture de modèle de données dans l’expérience utilisateur de modélisation web du modèle sémantique | Modèle sémantique | Utilisation de capacité Power BI en CU | Interactive |
| Écriture de la modélisation web | Opération d’écriture de modèle de données dans l’expérience utilisateur de modélisation web du modèle sémantique | Modèle sémantique | Utilisation de capacité Power BI en CU | Interactive |
| Lecture XMLA | Opérations de lecture XMLA initiées par l’utilisateur, pour les requêtes et les découvertes | Modèle sémantique | Utilisation de capacité Power BI en CU | Interactive |
| Écriture XMLA | Une opération d’écriture XMLA en arrière-plan qui modifie le modèle | Modèle sémantique | Utilisation de capacité Power BI en CU | Background |
| Exécution visuelle de scripts Power BI | Les visuels créés avec R et Python sont exécutés lorsque le rapport Power BI est rendu. | Rapport de script Power BI | Capacité à mémoire optimisée Spark (CU) | Interactive |
Intelligence en Temps Réel
L'expérience Real-Time Intelligence contient des opérations pour Détecteur d'anomalies, les événements Azure et Fabric, le générateur de jumeaux numériques (préversion), Eventstream et la base de données KQL et le jeu de requêtes KQL.
Anomaly Detector
Vous trouverez les taux de consommation pour détecteur d’anomalies dans l’utilisation de la capacité de détecteur d’anomalies et la facturation dans Real-Time Intelligence.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Requêtes d’exécution du détecteur d’anomalies | Analyse interactive et surveillance continue | Détecteur d'anomalies | Requêtes sur l'utilisation de la capacité CU du détecteur d’anomalies | Background |
Événements Azure et Fabric
Vous trouverez les taux de consommation des événements Azure et Fabric dans la consommation des événements Azure et Fabric.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Opérations d'événements | Opérations de publication, de livraison et de filtrage | Multiple | Real-Time Intelligence : Opérations d’événement | Background |
| Écouteur d’événements | Durée de bon fonctionnement du détecteur d’événements | Multiple | Real-Time Intelligence : Détecteur d’événements et Alerte | Background |
Constructeur de jumeaux numériques (aperçu)
Vous pouvez trouver les ratios de consommation pour le générateur de jumeaux numériques (préversion) dans le document consommation de capacité du générateur de jumeaux numériques (préversion), rapports d’utilisation et facturation.
Note
Les compteurs du générateur de jumeaux numériques sont actuellement en version préliminaire et peuvent changer.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Opération Digital Twin Builder | Utilisation des opérations de flux de générateur de jumeaux numériques à la demande et planifiées | Flux du générateur de jumeaux numériques | Utilisation de la capacité d'opération du Digital Twin Builder CU | Background |
Eventstream
Vous trouverez les taux de consommation pour Eventstream dans Surveiller la consommation de capacité pour Microsoft Fabric Eventstream.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Flux d’événements par heure | Tarif forfaitaire | Eventstream | Utilisation de capacité Eventstream en CU | Background |
| Trafic de données Eventstream par Go | Volume d’entrée et de sortie des données dans les flux par défaut et dérivés (Inclut la rétention de 24 heures) | Eventstream | Utilisation de capacité du trafic de données Eventstream en CU | Background |
| Processeur Eventstream par heure | Ressources informatiques consommées par le processeur | Eventstream | Capacité d'utilisation du processeur Eventstream CU | Background |
| Connecteurs Eventstream par heure de vCore | Ressources informatiques consommées par les connecteurs | Eventstream | Utilisation de capacité du connecteur Eventstream en CU | Background |
Base de données KQL et ensemble de requêtes KQL
Vous trouverez les taux de consommation de la base de données KQL dans Consommation de la base de données KQL.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Durée de bon fonctionnement Eventhouse | Mesure du temps pendant lequel Eventhouse est actif | Eventhouse | Utilisation de capacité de l’Eventhouse en CU | Background |
Spark
Deux VCores Spark (une unité de puissance de calcul pour Spark) sont égaux à une unité de capacité (CU). Pour comprendre comment les opérations Spark consomment des CUs, reportez-vous aux pools Spark.
| Operation | Description | Item | Compteur de facturation Azure | Type |
|---|---|---|---|---|
| Gestion du lakehouse | Tableau d’aperçu des utilisateurs dans l’explorateur Lakehouse | Lakehouse | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Chargement de table Lakehouse | Les utilisateurs chargent la table delta dans l’explorateur Lakehouse | Lakehouse | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution du bloc-notes | Notebook exécuté manuellement par les utilisateurs | Notebook | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution HC de notebook | Exécution de notebook sous la session Spark haute concurrence | Notebook | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution planifiée de notebook | Exécution de notebook déclenchée par des événements planifiés de notebook | Notebook | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution de pipeline de notebook | Exécution de notebook déclenchée par le pipeline | Notebook | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution VS Code de notebook | Notebook s’exécute dans VS Code. | Notebook | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution de travail Spark | Exécutions de travaux par lots Spark initiées par soumission par les utilisateurs | Définition de la tâche Spark | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution planifiée de travail Spark | Exécutions de travaux par lots déclenchées par des événements planifiés de notebook | Définition de la tâche Spark | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution de pipeline de travail Spark | Exécutions de travaux par lots déclenchées par le pipeline | Définition de la tâche Spark | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution de tâche Spark dans VS Code | Définition de tâche Spark envoyée depuis VS Code | Définition de la tâche Spark | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Exécution de la vue matérialisée du lac | Les utilisateurs planifient des exécutions de vues matérialisées de lac de données. | Lakehouse | Utilisation de capacité à mémoire optimisée Spark en CU | Background |
| Transformations de raccourci | Transformations de raccourci créées dans le Lakehouse | Lakehouse | Utilisation de capacité à mémoire optimisée Spark en CU | Background |