Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
Cet article s’applique à Databricks Connect pour Databricks Runtime 13.3 LTS et versions ultérieures.
Databricks Connect vous permet de connecter des EDI populaires tels que PyCharm, des serveurs de blocs-notes et d’autres applications personnalisées au calcul Azure Databricks. Consultez Qu’est-ce que Databricks Connect ?.
Cet article explique comment démarrer rapidement avec Databricks Connect pour Python à l’aide de PyCharm. Vous allez créer un projet dans PyCharm, installer Databricks Connect pour Databricks Runtime 13.3 LTS et versions ultérieures, puis exécuter du code simple sur le calcul classique dans votre espace de travail Databricks à partir de PyCharm.
Spécifications
Pour suivre ce tutoriel, vous devez répondre aux exigences suivantes :
- Votre espace de travail, votre environnement local et votre calcul répondent aux exigences de Databricks Connect pour Python. Consultez les exigences d’utilisation de Databricks Connect.
- PyCharm est installé. Ce tutoriel a été testé avec PyCharm Community Edition 2023.3.5. Si vous utilisez une version ou une édition différente de PyCharm, les instructions suivantes peuvent varier.
- Si vous utilisez le calcul classique, vous aurez besoin de l’ID du cluster. Pour obtenir votre ID de cluster, dans votre espace de travail, cliquez sur Calcul dans la barre latérale, puis sur le nom de votre cluster. Dans la barre d’adresses de votre navigateur web, copiez la chaîne de caractères entre
clustersetconfigurationdans l’URL.
Étape 1 : Configurer l’authentification Azure Databricks
Ce tutoriel utilise l’authentification U2M (utilisateur à machine) OAuth d’Azure Databricks et un profil de configuration Azure Databricks pour l’authentification auprès de votre espace de travail Azure Databricks. Pour utiliser un autre type d’authentification, consultez la section Configurer les propriétés de connexion.
La configuration de l’authentification U2M OAuth nécessite l’interface CLI Databricks. Pour plus d’informations sur l’installation de l’interface CLI Databricks, consultez Installer ou mettre à jour l’interface CLI Databricks.
Lancez l’authentification OAuth U2M comme suit :
Utilisez l’interface CLI Databricks pour lancer la gestion des jetons OAuth localement en exécutant la commande suivante pour chaque espace de travail cible.
Dans la commande suivante, remplacez
<workspace-url>par votre URL Azure Databricks par espace de travail, par exemplehttps://adb-1234567890123456.7.azuredatabricks.net.databricks auth login --configure-cluster --host <workspace-url>Conseil / Astuce
Pour utiliser le calcul serverless avec Databricks Connect, consultez Configurer une connexion à un calcul serverless.
L’interface CLI Databricks vous invite à enregistrer les informations que vous avez entrées en tant que profil de configuration Azure Databricks. Appuyez sur
Enterpour accepter le nom de profil suggéré, ou entrez le nom d’un profil nouveau ou existant. Tout profil existant portant le même nom est remplacé par les informations que vous avez entrées. Vous pouvez utiliser des profils pour changer rapidement de contexte d’authentification entre plusieurs espaces de travail.Pour obtenir la liste des profils existants, dans un autre terminal ou une autre invite de commandes, utilisez l’interface CLI Databricks pour exécuter la commande
databricks auth profiles. Pour afficher les paramètres existants d’un profil spécifique, exécutez la commandedatabricks auth env --profile <profile-name>.Dans votre navigateur web, suivez les instructions à l’écran pour vous connecter à votre espace de travail Azure Databricks.
Dans la liste des clusters disponibles qui s’affiche dans votre terminal ou invite de commande, utilisez les flèches haut et bas pour sélectionner le cluster Azure Databricks cible dans votre espace de travail, puis appuyez sur
Enter. Vous pouvez également taper n’importe quelle partie du nom d’affichage du cluster pour filtrer la liste des clusters disponibles.Pour afficher la valeur actuelle du jeton OAuth d’un profil et l’horodatage d’expiration à venir du jeton, exécutez l’une des commandes suivantes :
databricks auth token --host <workspace-url>databricks auth token -p <profile-name>databricks auth token --host <workspace-url> -p <profile-name>
Si vous avez plusieurs profils avec la même valeur pour
--host, il peut être nécessaire de spécifier aussi les options--hostet-ppour permettre à l’interface CLI Databricks de trouver les informations du jeton OAuth correspondant.
Étape 2 : créer le projet
- Démarrez PyCharm.
- Dans le menu principal, cliquez sur Fichier > Nouveau projet.
- Dans la boîte de dialogue Nouveau projet, cliquez sur Pure Python.
- Pour Emplacement, cliquez sur l’icône de dossier et suivez les instructions à l’écran pour spécifier le chemin d’accès à votre nouveau projet Python.
- Laissez Créer un script de bienvenue main.py sélectionné.
- Pour le type d’interpréteur, cliquez sur Projet venv.
- Développez la section version de Python, puis utilisez l’icône de dossier ou la liste déroulante pour spécifier le chemin d’accès à l’interpréteur Python à partir des exigences précédentes.
- Cliquez sur Créer.
Étape 3 : Ajouter le package Databricks Connect
- Dans le menu principal de PyCharm, cliquez sur Afficher les > packages Python Windows > de l’outil.
- Dans la zone de recherche, entrez
databricks-connect. - Dans la liste référentiel PyPI, cliquez sur databricks-connect.
- Dans la liste déroulante la plus récente du volet de résultats, sélectionnez la version qui correspond à la version databricks Runtime de votre cluster. Par exemple, si Databricks Runtime 14.3 est installé sur votre cluster, sélectionnez 14.3.1.
- Cliquez sur Installer le package.
- Une fois le package installé, vous pouvez fermer la fenêtre Packages Python.
Étape 4 : Ajouter du code
Dans la fenêtre de l’outil Projet , cliquez avec le bouton droit sur le dossier racine du projet, puis cliquez sur Nouveau > fichier Python.
Entrez
main.pyet double-cliquez sur Fichier Python.Entrez le code suivant dans le fichier, puis enregistrez le fichier, en fonction du nom de votre profil de configuration.
Si votre profil de configuration de l’étape 1 s’appelle
DEFAULT, entrez le code suivant dans le fichier, puis enregistrez le fichier :from databricks.connect import DatabricksSession spark = DatabricksSession.builder.getOrCreate() df = spark.read.table("samples.nyctaxi.trips") df.show(5)Si votre profil de configuration de l’étape 1 ne s’appelle pas
DEFAULT, entrez le code suivant dans le fichier à la place. Remplacez l’espace réservé<profile-name>par le nom de votre profil de configuration défini à l’étape 1, puis enregistrez le fichier :from databricks.connect import DatabricksSession spark = DatabricksSession.builder.profile("<profile-name>").getOrCreate() df = spark.read.table("samples.nyctaxi.trips") df.show(5)
Étape 5 : Exécuter le code
- Démarrez le cluster cible dans votre espace de travail Azure Databricks distant.
- Une fois le cluster démarré, dans le menu principal, cliquez sur Exécuter « > main ».
- Dans la fenêtre d'outil Exécuter (Afficher > Fenêtres d’outils > Exécuter), dans le volet principal de l’onglet Exécuter, les 5 premières lignes du
samples.nyctaxi.tripsapparaissent.
Étape 6 : Déboguer le code
- Le cluster étant toujours en cours d’exécution, dans le code précédent, cliquez sur la gouttière à côté de
df.show(5)pour définir un point d’arrêt. - Dans le menu principal, cliquez sur >.
- Dans la fenêtre de l’outil Débogage (Afficher > Fenêtres d'outils > Débogage), dans le volet Variables de l’onglet Débogueur, développez les nœuds des variables df et spark pour parcourir les informations sur les variables du
dfcode. - Dans la barre latérale de la fenêtre Outil Debug , cliquez sur l’icône flèche verte (Reprendre le programme).
- Dans le volet Console de l’onglet Débogueur, les 5 premières lignes de
samples.nyctaxi.tripsapparaissent.