Compartilhar via


Ingerir dados do Fabric OneLake

O Power Automate Process Mining oferece a opção de armazenar e ler dados de log de eventos diretamente do Fabric OneLake por meio do Fabric Lakehouse. Esse recurso simplifica o gerenciamento de extração, transformação e carregamento (ETL) conectando-se diretamente ao OneLake.

Atualmente, esse recurso oferece suporte à ingestão do seguinte:

Tabelas

  • Tabelas Delta
    • Única tabela Delta no Fabric Lakehouse.

Arquivos e pastas

  • CSV
    • Arquivo CSV único.
    • Pasta com vários arquivos CSV que têm a mesma estrutura. Todos os arquivos são ingeridos.
  • Parquet
    • Arquivo parquet único.
    • Pasta com vários arquivos parquet que têm a mesma estrutura. Todos os arquivos são ingeridos.
  • Delta-parquet
    • Pasta que contém uma estrutura delta-parquet.

Pré-requisitos

  • Certifique-se de que a opção Os usuários podem acessar os dados armazenados no OneLake com aplicativos externos ao Fabric está ativada nas configurações de locatário do OneLake.

  • Um espaço de trabalho do Fabric diferente do Meu espaço de trabalho padrão.

  • A função Administrador deve ser atribuída ao usuário que esteja realizando a configuração do espaço de trabalho inicial do ambiente para os outros usuários no mesmo ambiente.

  • O espaço de trabalho do Fabric precisa ser compartilhado com a entidade de serviço do Produção de Insights do Processo com uma função de Administrador. Para registrar a entidade de serviço produção de insights do processo, siga as etapas em Instalar ferramentas do Azure.

    Captura de tela das configurações do espaço de trabalho do Fabric com o compartilhamento com a entidade de serviço de Insights do Processo.

  • Um Fabric Lakehouse deve ser criado neste espaço de trabalho com os dados em formatos compatíveis.

Importante

No momento, não há suporte para o seguinte item: Fabric Lakehouses com suporte a esquema habilitado.

  • Os dados CSV em seu lakehouse devem atender aos seguintes requisitos de formato de arquivo CSV:

    • Tipo de compactação: nenhuma
    • Delimitador de coluna: vírgula (,)
    • Delimitador de linha: padrão e codificação. Por exemplo, Padrão (\r,\n ou \r\n)

    Captura de tela de Configurações do formato do arquivo.

  • Todos os dados devem estar no formato final de log de eventos e atender aos requisitos listados em Requisitos de dados. Os dados devem estar prontos para serem mapeados para o esquema de mineração de processo. Nenhuma transformação de dados está disponível após a ingestão.

  • O tamanho (largura) da linha do cabeçalho está atualmente limitado a 1 MB.

Importante

Verifique se o carimbo de data/hora representado no arquivo CSV segue o formato padrão ISO 8601 (por exemplo, YYYY-MM-DD HH:MM:SS.sss ou YYYY-MM-DDTHH:MM:SS.sss).

Conectar-se ao Fabric OneLake

  1. No painel de navegação à esquerda, selecione Process mining>Começar aqui.

  2. No campo Nome do processo, insira um nome para o processo.

  3. No cabeçalho Fonte de dados, selecione Importar dados>OneLake>Continuar.

    Captura de tela da etapa

  4. Selecione um espaço de trabalho do Power BI opcional ou selecione Ignorar.

  5. Na tela Configuração da conexão, selecione o Espaço de Trabalho do Fabric no menu suspenso. Isso preenche o menu suspenso Lakehouse. No menu, selecione o lakehouse que contém seus dados e escolha Avançar.

  6. Navegue pela estrutura de pastas do Lakehouse e selecione a tabela, o arquivo ou a pasta Delta que contém os dados do log de eventos.

    Você pode selecionar uma única tabela Delta, um único arquivo ou uma pasta com vários arquivos. Todos os arquivos devem ter os mesmos cabeçalhos e formato.

  7. Selecione Avançar.

  8. Na tela Mapear seus dados, mapeie seus dados para o esquema necessário.

    Captura da tela Mapear seus dados.

  9. Conclua a conexão selecionando Salvar e Analisar.

Definir configurações de atualização de dados incrementais

Você pode atualizar um processo ingerido do Fabric OneLake em uma agenda, por meio de uma atualização incremental ou completa. Embora não haja políticas de retenção, você pode ingerir dados de forma incremental usando um dos seguintes métodos:

Se você selecionou uma única tabela Delta na seção anterior, acrescente mais dados à tabela selecionada.

Se você selecionou um único arquivo na seção anterior, acrescente mais dados ao arquivo selecionado.

Se você selecionou uma pasta na seção anterior, adicione arquivos incrementais à pasta selecionada.

Importante

Ao adicionar arquivos incrementais a uma pasta ou subpasta selecionada, não se esqueça de indicar a ordem de incremento nomeando os arquivos com datas como AAMMDD.csv ou AAAAMMDDHHMMSS.csv.

Para atualizar um processo:

  1. Acesse a página Detalhes do processo.

  2. Selecione Configurações de Atualização.

  3. Na tela Agendar atualização, conclua as seguintes etapas:

    1. Ative o botão de alternância Manter os dados atualizados.
    2. Nas listas suspensas Atualizar dados a cada, selecione a frequência da atualização.
    3. Nos campos Iniciar em, selecione a data e a hora da atualização.
    4. Ative o botão de alternância Atualização incremental.