Partager via


Exigences et limitations de calcul dédiées

Cette page présente les exigences et les limitations pour le calcul dédié. La plupart des limitations de calcul dédiées dépendent du runtime, car la prise en charge des fonctionnalités a été ajoutée au fil du temps.

Important

Les scripts d’initialisation et les bibliothèques ont différentes prises en charge selon les modes d’accès et les versions de Databricks Runtime. Consultez Où peuvent être installés les scripts d’initialisation ? et Bibliothèques à l’échelle du calcul.

Le calcul dédié affecté à un groupe présente des limitations supplémentaires. Consultez les limitations d’accès au groupe.

Prise en charge du contrôle d’accès affiné

Le contrôle d’accès affiné est pris en charge sur le calcul dédié avec certaines exigences :

  • Votre espace de travail doit être activé pour le calcul serverless.
  • Les opérations de lecture sont prises en charge sur Databricks Runtime 15.4 LTS et versions ultérieures.
  • Les opérations d’écriture sont prises en charge sur Databricks Runtime 16.3 et versions ultérieures. Consultez la prise en charge de DDL, SHOW, DESCRIBE et d’autres commandes.

Si votre calcul dédié s’exécute sur Databricks Runtime 15.3 ou ci-dessous :

Exigences de diffusion en continu et de vue matérialisée sur le calcul dédié

  • Pour interroger une table créée par un autre utilisateur à l’aide de pipelines déclaratifs Spark Lakeflow, y compris les tables de diffusion en continu et les vues matérialisées, votre espace de travail doit être activé pour le calcul serverless et votre calcul dédié doit se trouver sur Databricks Runtime 15.4 ou version ultérieure.
  • Le point de contrôle asynchrone est pris en charge sur Databricks Runtime 12.2 LTS et versions ultérieures.
  • L’utilisation StreamingQueryListener pour interagir avec les objets gérés par Unity Catalog est prise en charge sur Databricks Runtime 15.1 et versions ultérieures.