Partilhar via


Carregar dados usando COPY INTO com um princípio de serviço

Este artigo descreve como usar o comando COPY INTO para carregar dados de um contêiner do Azure Data Lake Storage (ADLS) em sua conta do Azure em uma tabela no Databricks SQL.

As etapas neste artigo pressupõem que o seu administrador preparou um armazém de dados SQL para usar um principal de serviço Azure Databricks, de modo que poderá aceder aos seus ficheiros de origem no ADLS. Se o administrador configurou um local externo do Catálogo Unity com uma credencial de armazenamento, consulte Carregar dados usando COPY INTO com volumes do Catálogo Unity ou locais externos em vez disso. Se o administrador lhe tiver fornecido credenciais temporárias (um token SAS de Blob), siga os passos indicados em Carregar dados utilizando COPY INTO com credenciais temporárias em vez disso.

O Databricks recomenda o uso do comando COPY INTO para carregamento incremental e em massa de dados com o Databricks SQL.

Nota

COPY INTO Funciona bem para fontes de dados que contêm milhares de arquivos. O Databricks recomenda que você use o Auto Loader para carregar milhões de arquivos, o que não é suportado no Databricks SQL.

Antes de começar

Antes de carregar dados no Azure Databricks, verifique se você tem o seguinte:

Etapa 1: confirmar o acesso aos dados no armazenamento em nuvem

Para confirmar que você tem acesso aos dados corretos no armazenamento de objetos na nuvem, faça o seguinte:

  1. Na barra lateral, clique em Criar > consulta.

  2. Na barra de menus do editor SQL, selecione um armazém SQL.

  3. No editor SQL, cole o seguinte código:

    select * from csv.<path>
    

    Substitua <path> pelo caminho do contêiner ADLS que você recebeu do administrador. Por exemplo, abfss://<container>@<storage-account>.dfs.core.windows.net/<folder>.

  4. Clique em Executar.

Etapa 2: Criar uma tabela

Esta etapa descreve como criar uma tabela em seu espaço de trabalho do Azure Databricks para armazenar os dados de entrada.

  1. No editor SQL, cole o seguinte código:

    CREATE TABLE <catalog_name>.<schema_name>.<table_name> (
      tpep_pickup_datetime  TIMESTAMP,
      tpep_dropoff_datetime TIMESTAMP,
      trip_distance DOUBLE,
      fare_amount DOUBLE,
      pickup_zip INT,
      dropoff_zip INT
    );
    
  2. Clique em Executar.

Etapa 3: Carregar dados do armazenamento em nuvem na tabela

Esta etapa descreve como carregar dados de um contêiner ADLS na tabela em seu espaço de trabalho do Azure Databricks.

  1. Na barra lateral, clique em Criar > consulta.

  2. Na barra de menus do editor SQL, selecione um armazém SQL e certifique-se de que o armazém SQL está em execução.

  3. No editor SQL, cole o código a seguir. Neste código, substitua:

    • <container> com o nome do seu contentor ADLS na sua conta de armazenagem.
    • <storage-account> com o nome da sua conta de armazenamento ADLS.
    • <folder> com o nome da pasta que contém os seus dados.
    • <blob-sas-token> com o valor do Blob SAS token que recebeste do teu administrador.
    COPY INTO <catalog-name>.<schema-name>.<table-name>
    FROM 'abfss://<container>@<storage-account>.dfs.core.windows.net/<folder>'
    FILEFORMAT = CSV
    FORMAT_OPTIONS (
      'header' = 'true',
      'inferSchema' = 'true'
    );
    
    SELECT * FROM <catalog-name>.<schema-name>.<table-name>;
    

    Nota

    FORMAT_OPTIONS difere de FILEFORMAT. Nesse caso, a opção instrui o header Azure Databricks a tratar a primeira linha do arquivo CSV como um cabeçalho, e as opções instruem o inferSchema Azure Databricks a determinar automaticamente o tipo de dados de cada campo no arquivo CSV.

  4. Clique em Executar.

    Nota

    Se você clicar em Executar novamente, nenhum novo dado será carregado na tabela. Isso ocorre porque o comando processa COPY INTO apenas o que considera ser novos dados.

Limpeza

Você pode limpar os recursos associados em seu espaço de trabalho se não quiser mais mantê-los.

Excluir as tabelas

  1. Na barra lateral, clique em Criar > consulta.

  2. Selecione um armazém SQL e certifique-se de que o armazém SQL está em execução.

  3. Cole o seguinte código:

    DROP TABLE <catalog-name>.<schema-name>.<table-name>;
    
  4. Clique em Executar.

  5. Passe o cursor sobre a guia desta consulta e clique no ícone X .

Excluir as consultas no editor SQL

  1. Na barra lateral, clique em Editor SQL.
  2. Na barra de menus do editor SQL, passe o mouse sobre a guia para cada consulta criada para este tutorial e clique no ícone X .

Recursos adicionais