Partilhar via


Ingerir dados do Fabric OneLake

O Power Automate Process Mining dá-lhe a opção de armazenar e ler dados de registo de eventos diretamente do Fabric OneLake através do Fabric Lakehouse. Esta caraterística simplifica a gestão de extração, transformação e carga (ETL) ao ligar-se diretamente ao seu OneLake.

Atualmente, esta caraterística suporta a ingestão do seguinte:

Tabelas

  • Tabelas Delta
    • Única tabela Delta no Fabric Lakehouse.

Ficheiros e pastas

  • CSV
    • Ficheiro CSV único.
    • Pasta com vários ficheiros CSV que têm a mesma estrutura. Todos os ficheiros são ingeridos.
  • Parquet
    • Um ficheiro parquet único.
    • Pasta com vários ficheiros parquet que têm a mesma estrutura. Todos os ficheiros são ingeridos.
  • Delta-parquet
    • Pasta que contém uma estrutura delta-parquet.

Pré-requisitos

  • Certifique-se de que a opção Utilizadores podem aceder a dados armazenados no OneLake com aplicações externas ao Fabric está ativada nas definições de inquilino do OneLake.

  • Uma área de trabalho do Fabric diferente da Minha área de trabalho predefinida.

  • A função de Administrador tem de ser atribuída ao utilizador que executa a configuração inicial da área de trabalho para o ambiente para os outros utilizadores no mesmo ambiente.

  • A área de trabalho do Fabric precisa de ser partilhada com o Principal de serviço de Produção de Informações do Processo com uma função de Administrador. Para registar o principal de serviço da Produção de Informações do Processo, siga os passos em Instalar ferramentas do Azure.

    Captura de ecrã das definições da área de trabalho do Fabric com a partilha com o principal de serviço das Informações do Processo.

  • Tem de ser criado um Fabric Lakehouse nesta área de trabalho com os dados em formatos suportados.

Importante

O item a seguir não é atualmente suportado: Fabric Lakehouses com o suporte de Esquema ativado.

  • Os dados CSV no seu Lakehouse deverão satisfazer os seguintes requisitos do formato de ficheiro CSV:

    • Tipo de compressão: nenhum
    • Delimitador de colunas: vírgula (,)
    • Delimitador de linhas: predefinição e codificação. Por exemplo, Predefinição (\r,\n ou \r\n)

    Captura de ecrã do ecrã de Definições do formato de ficheiro.

  • Todos os dados têm de estar no formato de registo de eventos final e satisfazerem os requisitos listados em Requisitos de dados. Os dados deverão estar prontos para serem mapeados para o esquema da extração de processos. Não está disponível nenhuma transformação após a ingestão.

  • O tamanho (largura) da linha do cabeçalho está atualmente limitado a 1 MB.

Importante

Certifique-se de que o carimbo de data/hora representado no seu ficheiro CSV segue o formato da norma ISO 8601 (por exemplo, YYYY-MM-DD HH:MM:SS.sss ou YYYY-MM-DDTHH:MM:SS.sss).

Ligar ao Fabric OneLake

  1. No painel de navegação à esquerda, selecione Process Mining>Começar aqui.

  2. No campo Nome do processo, introduza um nome para o processo.

  3. No título Origem de dados, selecione Importar dados>OneLake>Continuar.

    Captura de ecrã do passo

  4. Selecione uma área de trabalho opcional do Power BI ou selecione Ignorar.

  5. No ecrã Configuração da ligação, selecione a sua Área de trabalho do Fabric no menu pendente. Isto preenche o menu pendente do Lakehouse. No menu, selecione o lakehouse que contém os seus dados e selecione Seguinte.

  6. Navegue pela estrutura de pastas do Lakehouse e selecione a tabela Delta, o ficheiro ou a pasta que contém os dados do registo de eventos.

    Pode selecionar uma única tabela Delta, um único ficheiro ou uma pasta com vários ficheiros. Todos os ficheiros têm de ter os mesmos cabeçalhos e formato.

  7. Selecione Seguinte.

  8. No ecrã Mapear os dados, mapeie os dados para o esquema necessário.

    Captura de ecrã do ecrã Mapear os dados.

  9. Conclua a ligação selecionando Guardar e Analisar.

Estabelecer definições de atualização de dados incremental

Pode atualizar um processo ingerido do Fabric OneLake numa agenda, através de uma atualização completa ou incremental. Apesar de não haver políticas de retenção, pode ingerir dados incrementalmente utilizando um dos seguintes métodos:

Se selecionou uma única tabela Delta na secção anterior, anexe mais dados à tabela selecionada.

Se selecionou um único ficheiro na secção anterior, anexe mais dados ao ficheiro selecionado.

Se selecionou uma pasta na secção anterior, adicione ficheiros incrementais à pasta selecionada.

Importante

Quando adiciona ficheiros incrementais a uma pasta ou subpasta selecionada, certifique-se de que indica a ordem de incremento ao nomear ficheiros com datas como AAAMMDD.csv ou AAAAMMDDHHMMSS.csv.

Para atualizar um processo:

  1. Aceda à página Detalhes do processo.

  2. Selecione Definições de Atualização.

  3. No ecrã Agendar atualização, conclua os seguintes passos:

    1. Ative o comutador Manter os seus dados atualizados.
    2. Nas listas pendentes Atualizar dados a cada, selecione a frequência da atualização.
    3. Nos campos Começar às, selecione a data e hora da atualização.
    4. Ative o comutador Atualização incremental.