Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Importante
Estas instruções aplicam-se a padrões de acesso a dados herdados. O Databricks recomenda o uso de locais externos do Unity Catalog para acesso a dados. ConsulteConectar-se ao armazenamento de objetos na nuvem usando o Unity Catalog.
Este artigo descreve como gerenciar propriedades de acesso a dados para armazéns SQL em um espaço de trabalho.
Importante
A alteração dessas configurações reinicia todos os armazéns SQL em execução.
Configurar uma entidade de serviço
Para configurar o acesso de seus armazéns SQL a uma conta de armazenamento do Armazenamento do Azure Data Lake usando entidades de serviço, siga estas etapas:
Registre um aplicativo Microsoft Entra ID (anteriormente Azure Ative Directory) e registre as seguintes propriedades:
- ID do aplicativo (cliente): uma ID que identifica exclusivamente o aplicativo Microsoft Entra ID.
- ID de diretório (locatário): uma ID que identifica exclusivamente a instância de ID do Microsoft Entra (chamada de ID de diretório (locatário) no Azure Databricks).
- Segredo do cliente: O valor de um segredo do cliente criado para este registro de aplicativo. O aplicativo usará essa cadeia de caracteres secreta para provar sua identidade.
Na sua conta de armazenamento, adicione uma atribuição de função para o aplicativo registrado na etapa anterior para dar acesso à conta de armazenamento.
Crie um escopo secreto apoiado pelo Cofre de Chaves do Azure ou com escopo de Databricks, consulte Gerenciar escopos secretos e registre o valor da propriedade de nome do escopo:
- Nome do escopo: o nome do escopo secreto criado.
Se estiver usando o Azure Key Vault, crie um segredo no Azure Key Vault, usando o segredo do cliente no campo Valor. Para obter um exemplo, consulte Etapa 4: Adicionar o segredo do cliente ao Cofre de Chaves do Azure. Mantenha um registo do nome secreto que escolheu.
- Nome secreto: o nome do segredo do Cofre da Chave do Azure criado.
Se estiver usando um escopo apoiado por Databricks, crie um novo segredo usando a CLI do Databricks e use-o para armazenar o segredo do cliente obtido na Etapa 1. Mantenha um registro da chave secreta que você inseriu nesta etapa.
- Chave secreta: A chave do segredo criado apoiado por Databricks.
Nota
Opcionalmente, você pode criar um segredo adicional para armazenar a ID do cliente obtida na Etapa 1.
Clique no seu nome de utilizador na barra superior da área de trabalho e selecione a opção Definições no menu suspenso.
Clique na guia Computação .
Clique em Gerenciar ao lado de SQL warehouses.
No campo Configuração de Acesso a Dados, clique no botão Adicionar Entidade de Serviço.
Configure as propriedades para a sua conta de armazenamento Azure Data Lake Storage.
Clique em Adicionar.
Você verá que novas entradas foram adicionadas à caixa de texto Configuração de Acesso a Dados.
Clique em Guardar.
Você também pode editar as entradas da caixa de texto Configuração de Acesso a Dados diretamente.
Configurar propriedades de acesso a dados para armazéns SQL
Para configurar todos os armazéns com propriedades de acesso a dados:
Clique no seu nome de utilizador na barra superior da área de trabalho e selecione a opção Definições no menu suspenso.
Clique na guia Computação .
Clique em Gerenciar ao lado de SQL warehouses.
Na caixa de texto Configuração de Acesso a Dados, especifique pares chave-valor que contenham propriedades de metastore.
Importante
Para definir uma propriedade de configuração do Spark como o valor de um segredo sem expor o valor secreto ao Spark, defina o valor como
{{secrets/<secret-scope>/<secret-name>}}. Substitua<secret-scope>pelo escopo secreto e<secret-name>pelo nome secreto. O valor deve começar com{{secrets/e terminar com}}. Para obter mais informações sobre essa sintaxe, consulte Gerenciar segredos.Clique em Guardar.
Você também pode configurar propriedades de acesso a dados usando o provedor Databricks Terraform e databricks_sql_global_config.
Propriedades suportadas
Para uma entrada que termina com
*, todas as propriedades dentro desse prefixo são suportadas.Por exemplo,
spark.sql.hive.metastore.*indica que ambosspark.sql.hive.metastore.jarsespark.sql.hive.metastore.versionsão suportados, e quaisquer outras propriedades que comecem comspark.sql.hive.metastore.Para propriedades cujos valores contêm informações confidenciais, você pode armazenar as informações confidenciais em segredo e definir o valor da propriedade como o nome secreto usando a seguinte sintaxe:
secrets/<secret-scope>/<secret-name>.
As seguintes propriedades têm suporte para armazéns SQL:
spark.sql.hive.metastore.*spark.sql.warehouse.dirspark.hadoop.datanucleus.*spark.hadoop.fs.*spark.hadoop.hive.*spark.hadoop.javax.jdo.option.*spark.hive.*
Para obter mais informações sobre como definir essas propriedades, consulte metastore externo do Hive.