Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cette page explique comment lire des données dans Salesforce Data 360 (anciennement Data Cloud) à l’aide du connecteur de partage de fichiers.
Quel connecteur Salesforce dois-je utiliser ?
Databricks offre plusieurs connecteurs pour Salesforce. Il existe deux connecteurs de copie zéro : le connecteur de partage de fichiers Salesforce Data 360 et le connecteur de fédération de requêtes Salesforce Data 360. Celles-ci vous permettent d’interroger des données dans Salesforce Data 360 sans les déplacer. Il existe également un connecteur d’ingestion Salesforce qui copie les données de différents produits Salesforce.
Le tableau suivant résume les différences entre les connecteurs Salesforce dans Databricks :
| Connecteur | Cas d’utilisation | Produits Salesforce pris en charge |
|---|---|---|
| Partage de fichiers Salesforce Data 360 | Lorsque vous utilisez le connecteur de partage de fichiers Salesforce Data 360 dans Lakehouse Federation, Databricks appelle les API Salesforce Data-as-a-Service (DaaS) pour lire les données directement dans l’emplacement de stockage d’objets cloud sous-jacent. Les requêtes sont exécutées sur le calcul Databricks sans utiliser le protocole JDBC. Par rapport à la fédération de requêtes, le partage de fichiers est idéal pour fédérer une grande quantité de données. Il offre des performances améliorées pour la lecture de fichiers à partir de plusieurs sources de données et de meilleures fonctionnalités pushdown. Consultez Fédération Lakehouse pour le partage de fichiers Salesforce Data 360. |
Données Salesforce 360 |
| Fédération de requêtes Salesforce Data 360 | Lorsque vous utilisez le connecteur de fédération de requêtes Salesforce Data 360 dans Lakehouse Federation, Databricks utilise JDBC pour se connecter aux données sources et envoyer des requêtes vers le bas dans Salesforce. Consultez Exécuter des requêtes fédérées sur Salesforce Data 360. | Données Salesforce 360 |
| Intégration dans Salesforce | Le connecteur d’ingestion Salesforce dans Lakeflow Connect vous permet de créer des pipelines d’ingestion entièrement managés à partir de données Salesforce Platform. Ce connecteur optimise la valeur en tirant parti non seulement des données CDP, mais également des données CRM dans la plateforme Data Intelligence. Consultez l'ingestion de données depuis Salesforce. | Consultez quels produits Salesforce prend-il en charge le connecteur d’ingestion Salesforce ? |
Avant de commencer
Conditions requises pour l’espace de travail :
- Espace de travail activé pour Unity Catalog.
Voici les exigences de calcul à respecter :
- Connectivité réseau de votre ressource de calcul Databricks à l’API Salesforce Data 360 et aux compartiments S3 publics de Salesforce Data 360 où résident les données. Consultez l’article Recommandations de mise en réseau pour Lakehouse Federation.
- Les clusters Azure Databricks doivent utiliser le mode d’accès Databricks Runtime 16.3 ou ultérieur et standard.
- Les entrepôts SQL doivent être Pro ou serverless.
Autorisations requises :
- Pour créer une connexion, vous devez être un administrateur de metastore ou un utilisateur disposant du privilège
CREATE CONNECTIONsur le metastore Unity Catalog attaché à l’espace de travail. - Pour créer un catalogue étranger, vous devez disposer de l’autorisation
CREATE CATALOGsur le metastore et être le propriétaire de la connexion ou disposer du privilègeCREATE FOREIGN CATALOGsur la connexion.
Des exigences d’autorisation supplémentaires sont spécifiées dans chaque section basée sur les tâches qui suit.
Créer une connexion et un catalogue externe
Une connexion spécifie un chemin d’accès et des informations d’identification pour accéder à un système de base de données externe. Pour créer une connexion, vous pouvez utiliser l’Explorateur de catalogues ou la commande SQL CREATE CONNECTION dans un notebook Azure Databricks ou l’éditeur de requête SQL Databricks.
Remarque
Vous pouvez également utiliser l’API REST Databricks ou l’interface CLI Databricks pour créer une connexion. Consultez POST /api/2.1/unity-catalog/connections et Commandes Unity Catalog.
Autorisations requises : administrateur de metastore ou utilisateur disposant du privilège CREATE CONNECTION.
Explorateur de catalogues
Dans votre espace de travail Azure Databricks, cliquez sur
Catalogue.
En haut du volet Catalogue, cliquez sur l’icône
Ajouter, puis sélectionnez Ajouter une connexion dans le menu.Sinon, dans la page Accès rapide, cliquez sur le bouton Données externes >, accédez à l’onglet Connexions, puis cliquez sur Créer une connexion.
Dans la page de Informations de base de connexion de l’assistant Configurer la connexion, entrez un Nom de connexion convivial.
Sélectionnez un type de connexion de Partage de fichiers Salesforce Data 360.
(Facultatif) Ajoutez un commentaire.
Cliquez sur Create connection (Créer la connexion).
Dans la page Authentification , entrez les propriétés suivantes pour votre instance de partage de fichiers Salesforce Data 360 :
-
Point de terminaison spécifique au locataire : par exemple,
https://mvsw0mbrmqzdcyj-m02t0mrsh1.pc-rnd.c360a.salesforce.com -
ID de locataire principal : par exemple,
core/falcontest8-core4sdb26/00DVF000001E16v2AC
-
Point de terminaison spécifique au locataire : par exemple,
Sur la page d’Informations de base du catalogue, entrez un nom pour le catalogue étranger. Un catalogue étranger reflète une base de données dans un système de données externe afin que vous puissiez interroger et gérer l’accès aux données de cette base de données à l’aide d’Azure Databricks et Unity Catalog.
(Facultatif) Cliquez sur Tester la connexion pour vérifier qu’elle fonctionne.
Cliquez sur Créer un catalogue.
Dans la page Access, sélectionnez les espaces de travail dans lesquels les utilisateurs peuvent accéder au catalogue que vous avez créé. Vous pouvez sélectionner Tous les espaces de travail ont l'accès, ou cliquer sur Affecter aux espaces de travail, sélectionner les espaces de travail, puis cliquer sur Attribuer.
Changez le propriétaire qui pourra gérer l'accès à tous les objets du catalogue. Commencez à taper un responsable dans la zone de texte, puis cliquez sur le responsable dans les résultats affichés.
Accordez des privilèges sur le catalogue. Cliquez sur Octroyer :
a) Spécifiez les Principaux qui auront accès aux objets du catalogue. Commencez à taper un responsable dans la zone de texte, puis cliquez sur le responsable dans les résultats affichés. a) Sélectionnez les Préréglages de privilège à accorder pour chaque bénéficiaire. Tous les utilisateurs d'un compte reçoivent
BROWSEpar défaut.- Sélectionnez Lecteur de données dans le menu déroulant pour accorder des
readprivilèges sur les objets du catalogue. - Sélectionnez Éditeur de données dans le menu déroulant pour accorder
readetmodifyprivilèges sur les objets du catalogue. - Sélectionnez manuellement les privilèges à accorder.
a) Cliquez sur Accorder.
- Sélectionnez Lecteur de données dans le menu déroulant pour accorder des
Cliquez sur Suivant.
Dans la page Métadonnées, spécifiez des paires clé-valeur pour les balises. Pour plus d’informations, consultez Appliquer des étiquettes aux objets sécurisables du catalogue Unity.
(Facultatif) Ajoutez un commentaire.
Cliquez sur Enregistrer.
Prenez note du
Account URLet duConnection URL. Vous aurez besoin de ces valeurs pour créer une cible de partage de données dans Salesforce.
SQL
Exécutez la commande suivante dans un notebook ou dans l’éditeur de requête SQL Databricks.
CREATE CONNECTION <connection-name> TYPE SALESFORCE_DATA_CLOUD_FILE_SHARING OPTIONS ( tenant_specific_endpoint '<tenant_specific_endpoint>', core_tenant_id '<core_tenant_id>' );Accédez à la page de connexion de la connexion nouvellement créée et notez le
Account URLet leConnection URL. Vous aurez besoin de ces valeurs pour créer une cible de partage de données dans Salesforce.
Créer une cible de partage de données dans Salesforce
Créez une cible de partage de données dans Salesforce en utilisant le Account URL et le Connection URL que vous avez récupérés à l’étape précédente.
Consultez Créer une cible de partage de données (Databricks) dans la documentation Salesforce.
Mappages de types de données
Lorsque vous lisez depuis Salesforce Data 360 File Sharing dans Spark, les types de données sont mappés comme suit :
| Type de partage de fichiers Salesforce Data 360 | Type Spark |
|---|---|
| Numéro | DecimalType(38, 18) |
| Booléen | Type Booléen |
| Texto | StringType |
| Date (Jour/Mois/Année) | DateType |
| Date et Heure | Horodatage |
| E-mail (texte) | StringType |
| Pourcentage (nombre) | DecimalType(38, 18) |
| Téléphone (texte) | StringType |
| URL (texte) | StringType |
Limites
- Le connecteur ne peut pas être utilisé avec des clusters mono-utilisateur.