Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O Power Automate Process Mining oferece a opção de armazenar e ler dados de log de eventos diretamente do Fabric OneLake por meio do Fabric Lakehouse. Esse recurso simplifica o gerenciamento de extração, transformação e carregamento (ETL) conectando-se diretamente ao OneLake.
Atualmente, esse recurso oferece suporte à ingestão do seguinte:
Tabelas
-
Tabelas Delta
- Única tabela Delta no Fabric Lakehouse.
Arquivos e pastas
-
CSV
- Arquivo CSV único.
- Pasta com vários arquivos CSV que têm a mesma estrutura. Todos os arquivos são ingeridos.
-
Parquet
- Arquivo parquet único.
- Pasta com vários arquivos parquet que têm a mesma estrutura. Todos os arquivos são ingeridos.
-
Delta-parquet
- Pasta que contém uma estrutura delta-parquet.
Pré-requisitos
Certifique-se de que a opção Os usuários podem acessar os dados armazenados no OneLake com aplicativos externos ao Fabric está ativada nas configurações de locatário do OneLake.
Um espaço de trabalho do Fabric diferente do Meu espaço de trabalho padrão.
A função Administrador deve ser atribuída ao usuário que esteja realizando a configuração do espaço de trabalho inicial do ambiente para os outros usuários no mesmo ambiente.
O espaço de trabalho do Fabric precisa ser compartilhado com a entidade de serviço do Produção de Insights do Processo com uma função de Administrador. Para registrar a entidade de serviço produção de insights do processo, siga as etapas em Instalar ferramentas do Azure.
Um Fabric Lakehouse deve ser criado neste espaço de trabalho com os dados em formatos compatíveis.
Importante
No momento, não há suporte para o seguinte item: Fabric Lakehouses com suporte a esquema habilitado.
Os dados CSV em seu lakehouse devem atender aos seguintes requisitos de formato de arquivo CSV:
- Tipo de compactação: nenhuma
- Delimitador de coluna: vírgula (,)
- Delimitador de linha: padrão e codificação. Por exemplo, Padrão (\r,\n ou \r\n)
Todos os dados devem estar no formato final de log de eventos e atender aos requisitos listados em Requisitos de dados. Os dados devem estar prontos para serem mapeados para o esquema de mineração de processo. Nenhuma transformação de dados está disponível após a ingestão.
O tamanho (largura) da linha do cabeçalho está atualmente limitado a 1 MB.
Importante
Verifique se o carimbo de data/hora representado no arquivo CSV segue o formato padrão ISO 8601 (por exemplo, YYYY-MM-DD HH:MM:SS.sss ou YYYY-MM-DDTHH:MM:SS.sss).
Conectar-se ao Fabric OneLake
No painel de navegação à esquerda, selecione Process mining>Começar aqui.
No campo Nome do processo, insira um nome para o processo.
No cabeçalho Fonte de dados, selecione Importar dados>OneLake>Continuar.
Selecione um espaço de trabalho do Power BI opcional ou selecione Ignorar.
Na tela Configuração da conexão, selecione o Espaço de Trabalho do Fabric no menu suspenso. Isso preenche o menu suspenso Lakehouse. No menu, selecione o lakehouse que contém seus dados e escolha Avançar.
Navegue pela estrutura de pastas do Lakehouse e selecione a tabela, o arquivo ou a pasta Delta que contém os dados do log de eventos.
Você pode selecionar uma única tabela Delta, um único arquivo ou uma pasta com vários arquivos. Todos os arquivos devem ter os mesmos cabeçalhos e formato.
Selecione Avançar.
Na tela Mapear seus dados, mapeie seus dados para o esquema necessário.
Conclua a conexão selecionando Salvar e Analisar.
Definir configurações de atualização de dados incrementais
Você pode atualizar um processo ingerido do Fabric OneLake em uma agenda, por meio de uma atualização incremental ou completa. Embora não haja políticas de retenção, você pode ingerir dados de forma incremental usando um dos seguintes métodos:
Se você selecionou uma única tabela Delta na seção anterior, acrescente mais dados à tabela selecionada.
Se você selecionou um único arquivo na seção anterior, acrescente mais dados ao arquivo selecionado.
Se você selecionou uma pasta na seção anterior, adicione arquivos incrementais à pasta selecionada.
Importante
Ao adicionar arquivos incrementais a uma pasta ou subpasta selecionada, não se esqueça de indicar a ordem de incremento nomeando os arquivos com datas como AAMMDD.csv ou AAAAMMDDHHMMSS.csv.
Para atualizar um processo:
Acesse a página Detalhes do processo.
Selecione Configurações de Atualização.
Na tela Agendar atualização, conclua as seguintes etapas:
- Ative o botão de alternância Manter os dados atualizados.
- Nas listas suspensas Atualizar dados a cada, selecione a frequência da atualização.
- Nos campos Iniciar em, selecione a data e a hora da atualização.
- Ative o botão de alternância Atualização incremental.