Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cette page explique comment configurer Lakehouse Federation pour exécuter des requêtes fédérées sur des données Amazon Redshift qui ne sont pas gérées par Azure Databricks. Pour en savoir plus sur lakehouse Federation, consultez Qu’est-ce que la Fédération Lakehouse ?
Pour vous connecter à votre base de données Run queries on Amazon Redshift à l’aide de Lakehouse Federation, vous devez créer les éléments suivants dans votre metastore Unity Catalog d’Azure Databricks :
- Une connexion à votre base de données Run queries on Amazon Redshift.
- Un catalogue externe qui reflète votre base de données Run queries on Amazon Redshift dans Unity Catalog afin que vous puissiez utiliser la syntaxe de requête Unity Catalog et les outils de gouvernance des données pour gérer l’accès des utilisateurs Azure Databricks à la base de données.
Avant de commencer
Conditions requises pour l’espace de travail :
- Espace de travail activé pour Unity Catalog.
Voici les exigences de calcul à respecter :
- Connectivité réseau de votre ressource de calcul aux systèmes de base de données cibles. Consultez Recommandations de mise en réseau de la Fédération Lakehouse.
- Le calcul Azure Databricks doit utiliser Databricks Runtime 13.3 LTS ou ultérieur et le mode d’accès Standard ou Dédié .
- Les entrepôts SQL doivent être pro ou serverless et doivent utiliser la version 2023.40 ou ultérieure.
Autorisations requises :
- Pour créer une connexion, vous devez être un administrateur de metastore ou un utilisateur disposant du privilège
CREATE CONNECTIONsur le metastore Unity Catalog lié à l’espace de travail. - Pour créer un catalogue étranger, vous devez disposer de l’autorisation
CREATE CATALOGsur le metastore et être le propriétaire de la connexion ou disposer du privilègeCREATE FOREIGN CATALOGsur cette connexion.
D'autres exigences en matière d’autorisation sont spécifiées dans les sections basées sur les tâches ci-dessous.
Créer une connexion
Une connexion indique un chemin d’accès et des informations d’identification pour accéder à un système de base de données externe. Pour créer une connexion, vous pouvez utiliser l’Explorateur de catalogues ou la commande SQL CREATE CONNECTION dans un notebook Azure Databricks, ou bien dans l’éditeur de requête SQL Databricks.
Note
Vous pouvez aussi utiliser l’API REST Databricks ou l’interface CLI Databricks pour créer une connexion. Consultez POST /api/2.1/unity-catalog/connections et Commandes Unity Catalog.
Autorisations requises : administrateur du metastore ou utilisateur disposant du privilège CREATE CONNECTION.
Explorateur de catalogues
Dans votre espace de travail Azure Databricks, cliquez sur
Catalogue.
En haut du volet Catalogue, cliquez sur l’icône
Ajouter, puis, dans le menu, sélectionnez Ajouter une connexion.Vous pouvez également vous rendre sur la page Accès rapide, cliquer sur le bouton Données externes >, accéder à l’onglet Connexions, puis cliquer sur Créer une connexion.
Dans la page Détails de la connexion du Assistant de configuration de la connexion, entrez un nom de connexion facile à utiliser.
Sélectionnez un Type de connexion de Redshift.
(Facultatif) Ajoutez un commentaire.
Cliquez sur Suivant.
Dans la page Authentification , entrez les propriétés de connexion suivantes pour votre instance Redshift.
-
Hôte : par exemple,
redshift-demo.us-west-2.redshift.amazonaws.com -
Port : par exemple,
5439 -
Utilisateur : par exemple,
redshift_user -
Mot de passe : par exemple,
password123
-
Hôte : par exemple,
(Facultatif) Désactivez la vérification du nom d’hôte SSL.
Cliquez sur Create connection (Créer la connexion).
Sur la pageConcepts de base du catalogue, saisissez un nom pour le catalogue étranger. Un catalogue étranger constitue un miroir d'une base de données dans un système de données externe. Cela vous permet d'interroger et de gérer l’accès aux données de cette base de données à l’aide d’Azure Databricks et d'Unity Catalog.
(Facultatif) Cliquez sur Tester la connexion pour vérifier qu’elle fonctionne.
Cliquez sur Créer un catalogue.
Dans la page Access, sélectionnez les espaces de travail dans lesquels les utilisateurs peuvent accéder au catalogue que vous avez créé. Vous pouvez sélectionner Tous les espaces de travail ont accès, ou cliquer sur Affecter aux espaces de travail, sélectionner les espaces de travail, puis cliquer sur Attribuer.
Changez le propriétaire qui pourra gérer l'accès à tous les objets du catalogue. Commencez à taper un responsable dans la zone de texte, puis cliquez sur le responsable dans les résultats affichés.
Accordez des privilèges sur le catalogue. Cliquez sur Octroyer :
- Spécifiez les Principaux qui auront accès aux objets du catalogue. Commencez à taper un responsable dans la zone de texte, puis cliquez sur le responsable dans les résultats affichés.
- Sélectionnez les Préréglages de privilège à accorder pour chaque principal. Tous les utilisateurs d'un compte reçoivent
BROWSEpar défaut.- Sélectionnez Lecteur de données dans le menu déroulant pour accorder des privilèges
readaux les objets du catalogue. - Sélectionnez Éditeur de données dans le menu déroulant pour accorder
readetmodifyprivilèges sur les objets du catalogue. - Sélectionnez manuellement les privilèges à accorder.
- Sélectionnez Lecteur de données dans le menu déroulant pour accorder des privilèges
- Cliquez sur Accorder.
Cliquez sur Suivant.
Sur la page Métadonnées, indiquez des paires clé-valeur pour les balises. Pour plus d’informations, consultez Appliquer des étiquettes aux objets sécurisables du catalogue Unity.
(Facultatif) Ajoutez un commentaire.
Cliquez sur Enregistrer.
SQL
Exécutez la commande suivante dans un notebook ou dans l’éditeur de requête SQL Databricks.
CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>'
);
Nous vous recommandons d’utiliser des secrets Azure Databricks au lieu de chaînes de texte en clair pour les données sensibles comme les informations d’identification. Par exemple:
CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
Pour plus d’informations sur la définition de secrets, consultez Gestion des secrets.
Créer un catalogue étranger
Note
Si vous utilisez l’interface utilisateur pour créer une connexion à la source de données, la création du catalogue étranger est incluse et vous pouvez ignorer cette étape.
Un catalogue étranger constitue un miroir d'une base de données dans un système de données externe. Cela vous permet d'interroger et de gérer l’accès aux données de cette base de données à l’aide d’Azure Databricks et d'Unity Catalog. Pour créer un catalogue étranger, vous devez utiliser une connexion à la source de données qui a déjà été définie.
Pour créer un catalogue étranger, vous pouvez utiliser Catalog Explorer ou la commande SQL CREATE FOREIGN CATALOG dans un notebook Azure Databricks ou dans l’éditeur de requête SQL. Vous pouvez aussi utiliser l’API REST Databricks ou l’interface CLI Databricks pour créer un catalogue. Consultez POST /api/2.1/unity-catalog/catalogs et Commandes Unity Catalog.
Autorisations requises :CREATE CATALOG autorisation sur le meta store et propriété de la connexion, ou bien privilège CREATE FOREIGN CATALOG sur la connexion.
Explorateur de catalogues
Dans votre espace de travail Azure Databricks, cliquez sur
Catalogue pour ouvrir l’Explorateur de catalogues.
En haut du volet Catalogue, cliquez sur l’icône
Ajouter, puis, dans le menu, sélectionnez Ajouter un catalogue.Vous pouvez également accéder à Accès rapide. Cliquez ensuite sur le bouton Catalogues, puis sur Créer un catalogue.
Suivez les instructions pour créer des catalogues étrangers dans Créer des catalogues.
SQL
Exécutez la commande SQL suivante dans un notebook ou dans l’éditeur de requêtes SQL. Les éléments entre crochets sont optionnels. Remplacez les valeurs d’espace réservé :
-
<catalog-name>: nom du catalogue dans Azure Databricks. -
<connection-name>: L'objet Connection qui indique la source de données, le chemin et les informations d’identification d’accès. -
<database-name>: nom de la base de données que vous souhaitez refléter en tant que catalogue dans Azure Databricks.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');
Pushdowns pris en charge
Les pushdowns suivants sont pris en charge :
- Filters
- Projections
- Limit
- Joins
- Agrégats (Average, Count, Max, Min, StddevPop, StddevSamp, Sum, VarianceSamp)
- Fonctions (Fonctions de chaîne et autres fonctions diverses telles que Alias, Cast, SortOrder)
- Sorting
Les pushdowns suivants ne sont pas prises en charge :
- Fonctions Windows
Mappages de types de données
Lorsque vous lisez des données depuis Redshift vers Spark, les types de données sont mappés comme suit :
| Type Redshift | Type Spark |
|---|---|
| numeric | DecimalType |
| int2, int4 | IntegerType |
| int8, oid, xid | LongType |
| float4 | FloatType |
| double précision, float8, argent | DoubleType |
| bpchar, char, caractère variable, name, super, text, tid, varchar | StringType |
| bytea, geometry, varbyte | BinaryType |
| bit, bool | BooleanType |
| date | DateType |
| tabstime, time, time avec fuseau horaire, timetz, time sans fuseau horaire, timestamp avec fuseau horaire, timestamp, timestamptz, timestamp sans fuseau horaire* | TimestampType/TimestampNTZType |
*Lorsque vous lisez depuis Redshift, Redshift Timestamp est mappé à Spark TimestampType si infer_timestamp_ntz_type = false (valeur par défaut). Redshift Timestamp est mappé à TimestampNTZType si infer_timestamp_ntz_type = true.
Limitations
- Vous ne pouvez pas exécuter de requêtes fédérées sur des données externes Amazon Redshift.