Partager via


Configurations Apache Airflow prises en charge

Important

Le 1er janvier 2026, vous ne pourrez plus créer de nouvelles instances Airflow à l’aide du Gestionnaire d’orchestration de flux de travail d’ADF. Nous vous recommandons de migrer toutes les charges de travail Apache Airflow (Apache Airflow dans Azure Data Factory) vers des travaux Apache Airflow dans Microsoft Fabric avant le 31 décembre 2025.

Pour plus d’informations ou pour obtenir du support pendant votre migration vers Apache Airflow dans Microsoft Fabric, contactez le support Microsoft.

Dans le gestionnaire du flux de travail, les configurations Apache Airflow peuvent être intégrées au runtime de la plateforme en tant que paires clé-valeur. Bien que le fichier airflow.cfg ne soit pas directement accessible dans l'interface utilisateur, les utilisateurs peuvent remplacer ces configurations dans la section « Remplacements de configurations Airflow » de l'interface utilisateur, tout en conservant l'accès aux autres airflow.cfg paramètres. Les développeurs ont la possibilité de remplacer la plupart des configurations Apache Airflow au sein du gestionnaire du flux de travail, except for those explicitly outlined in a provided table.

Pour plus d'informations sur les configurations Apache Airflow, consultez le rubrique Informations de référence sur la configuration.

Le tableau suivant contient la liste des configurations qui ne prennent pas en charge les remplacements.

Configuration Description Valeur par défaut
AIRFLOW__CELERY__FLOWER_URL_PREFIX L'URL racine de Flower. ""
AIRFLOW__CORE__DAGS_FOLDER Le chemin d'accès vers le dossier où se trouvent les pipelines Airflow. AIRFLOW_DAGS_FOLDER
AIRFLOW__CORE__DONOT_PICKLE Indique s'il faut désactiver la sérialisation des DAG. False
AIRFLOW__CORE__ENABLE_XCOM_PICKLING Indique s'il faut activer la sérialisation pour xcom. False
AIRFLOW__CORE__EXECUTOR La classe d'exécuteur que doit utiliser Airflow. CeleryExecutor
AIRFLOW__CORE__FERNET_KEY Clé secrète pour enregistrer les mots de passe de connexion dans la base de données. AIRFLOW_FERNET_KEY
AIRFLOW__CORE__DAGS_ARE_PAUSED_AT_CREATION Les DAG sont-ils mis en pause par défaut lors de leur création ? False
AIRFLOW__CORE__PLUGINS_FOLDER Chemin d'accès vers le dossier contenant les plug-ins Airflow. AIRFLOW_PLUGINS_FOLDER
AIRFLOW__LOGGING__BASE_LOG_FOLDER Le dossier dans lequel Airflow doit stocker ses fichiers journaux. /opt/airflow/logs
AIRFLOW__LOGGING__LOG_FILENAME_TEMPLATE Mise en forme pour les noms de fichier ou les chemins d'accès générés par Airflow pour chaque exécution de tâche. {{ ti.dag_id }}/{{ ti.task_id }}/{{ ts }}/{{ try_number }}.log
AIRFLOW__LOGGING__DAG_PROCESSOR_MANAGER_LOG_LOCATION Chemin d'accès complet du dag_processor_manager fichier journal. /opt/airflow/logs/dag_processor_manager/dag_processor_manager.log
AIRFLOW__LOGGING__LOGGING_CONFIG_CLASS La classe de configuration de journalisation détaille la configuration de journalisation. Cette classe doit se trouver sur le chemin d'accès de la classe Python. log_config.LOGGING_CONFIG
AIRFLOW__LOGGING__COLORED_LOG_FORMAT Format de journal lorsque les journaux colorés sont activés. [%(asctime)s] {{%(filename)s:%(lineno)d}} %(levelname)s - %(message)s
AIRFLOW__LOGGING__LOGGING_LEVEL Niveau de journalisation. INFO
AIRFLOW__METRICS__STATSD_ON Permet d'envoyer des métriques à StatsD. Vrai
AIRFLOW__METRICS__STATSD_HOST Nom d'hôte du serveur StatsD geneva-services
AIRFLOW__METRICS__STATSD_PORT Numéro de port du serveur StatsD. 8125
AIRFLOW__METRICS__STATSD_PREFIX Préfixe pour l'ensemble des métriques Airflow envoyées à StatsD. AirflowMetrics
AIRFLOW__SCHEDULER__CHILD_PROCESS_LOG_DIRECTORY Chemin d'accès du répertoire où le planificateur Airflow écrit ses journaux de processus enfants. /opt/airflow/logs/scheduler
AIRFLOW__SCHEDULER__DAG_DIR_LIST_INTERVAL Fréquence (en secondes) de recherche de nouveaux fichiers dans le répertoire des DAG. La fréquence par défaut est de 5 minutes. 5
AIRFLOW__WEBSERVER__BASE_URL L'URL de base de votre site Web, car Airflow ne peut pas deviner quel domaine ou CNAME vous utilisez. Cette URL est utilisée dans les e-mails automatisés envoyés par Airflow pour pointer des liens vers le serveur Web approprié. https://localhost:8080
AIRFLOW__WEBSERVER__COOKIE_SAMESITE Permet de définir la stratégie SameSite sur le cookie de session. None
AIRFLOW__WEBSERVER__COOKIE_SECURE Permet de définir un indicateur sécurisé sur le cookie de session. Vrai
AIRFLOW__WEBSERVER__EXPOSE_CONFIG Expose le fichier de configuration dans le serveur Web. False
AIRFLOW__WEBSERVER__AUTHENTICATE Permet d'authentifier l'utilisateur pour qu'il se connecte à l'interface utilisateur Airflow. Vrai
AIRFLOW__WEBSERVER__AUTH_BACKEND airflow.api.auth.backend.basic_auth
AIRFLOW__WEBSERVER__RELOAD_ON_PLUGIN_CHANGE Si la valeur est définie sur True, Airflow procède au suivi des fichiers dans le répertoire plugins_folder. Quand il détecte des changements, il recharge le Gunicorn. Vrai
AIRFLOW__WEBSERVER__SECRET_KEY Clé secrète utilisée pour exécuter votre application Flask. AIRFLOW_FERNET_KEY
AIRFLOW__API__AUTH_BACKEND Liste séparée par des virgules des back-ends d'authentification pour authentifier les utilisateurs de l'API. airflow.api.auth.backend.basic_auth
AIRFLOW__API__ENABLE_EXPERIMENTAL_API Vrai