Partager via


Ajouter une ressource Lakeflow Jobs dans une application Databricks

Ajoutez Lakeflow Jobs en tant que ressources des applications Databricks pour que votre application puisse déclencher, surveiller et gérer l’automatisation des workflows. Les travaux Lakeflow fournissent une orchestration pour les charges de travail de traitement des données, ce qui vous permet de coordonner et d’exécuter plusieurs tâches dans le cadre de flux de travail plus volumineux au sein de votre application.

Ajouter une ressource de travail

Avant d’ajouter un travail en tant que ressource, passez en revue les prérequis des ressources d’application.

  1. Lorsque vous créez ou modifiez une application, accédez à l’étape Configurer .
  2. Dans la section Ressources de l’application , cliquez sur + Ajouter une ressource.
  3. Sélectionnez Travail comme type de ressource.
  4. Choisissez un travail Lakeflow parmi les travaux disponibles dans votre espace de travail.
  5. Sélectionnez le niveau d’autorisation approprié pour votre application :
    • Peut afficher : Accorde à l’application l’autorisation d’afficher les détails du travail, l’historique des exécutions et l’état. Utilisez-le pour les applications de surveillance uniquement.
    • Peut gérer l’exécution : Octroie à l’application l’autorisation de déclencher et d’annuler les exécutions de travaux.
    • Peut gérer : Accorde à l’application un accès administratif complet au travail, y compris la modification de la configuration, des tâches et de la planification du travail.
  6. (Facultatif) Spécifiez une clé de ressource personnalisée, c’est-à-dire la façon dont vous référencez le travail dans la configuration de votre application. La clé par défaut est job.

Lorsque vous ajoutez une ressource de travail, le principal de service de l’application obtient les autorisations spécifiées sur le travail sélectionné, afin que votre application puisse interagir avec le flux de travail en fonction du niveau d’accès accordé.

Variables d’environnement

Lorsque vous déployez une application avec une ressource Lakeflow Jobs, Azure Databricks expose l’ID de travail via des variables d’environnement que vous pouvez référencer à l’aide du valueFrom champ.

Pour plus d’informations, consultez Utiliser des variables d’environnement pour accéder aux ressources.

Supprimer une ressource de travail

Lorsque vous supprimez une ressource Lakeflow Jobs d’une application, le principal de service de l’application perd l’accès au travail. Le travail lui-même reste inchangé et reste disponible pour d’autres utilisateurs et applications disposant d’autorisations appropriées.

Toutes les exécutions de travaux en cours lancées par l’application continuent d’être terminées, mais l’application ne peut plus déclencher de nouvelles exécutions ou accéder aux détails du travail.

Meilleures pratiques

Tenez compte des éléments suivants lorsque vous travaillez avec les ressources de travaux Lakeflow :

  • Accordez des autorisations minimales. Utilisez-la Can view pour surveiller les applications, Can manage run pour l’orchestration de flux de travail et Can manage uniquement lorsque votre application doit modifier les configurations de travail.
  • Implémentez une logique appropriée de gestion des erreurs et de nouvelle tentative dans votre application lors du déclenchement des exécutions de travaux, car les travaux peuvent échouer en raison de contraintes de ressources ou de problèmes de données.
  • Tenez compte des dépendances entre votre application et les flux de travail. Communiquez les échecs de travail critiques aux utilisateurs de votre application.
  • Utilisez des paramètres de travail pour rendre vos workflows configurables et réutilisables dans différents environnements d’application.