Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
O Power Automate Process Mining dá-lhe a opção de armazenar e ler dados de registo de eventos diretamente do Fabric OneLake através do Fabric Lakehouse. Esta caraterística simplifica a gestão de extração, transformação e carga (ETL) ao ligar-se diretamente ao seu OneLake.
Atualmente, esta caraterística suporta a ingestão do seguinte:
Tabelas
-
Tabelas Delta
- Única tabela Delta no Fabric Lakehouse.
Ficheiros e pastas
-
CSV
- Ficheiro CSV único.
- Pasta com vários ficheiros CSV que têm a mesma estrutura. Todos os ficheiros são ingeridos.
-
Parquet
- Um ficheiro parquet único.
- Pasta com vários ficheiros parquet que têm a mesma estrutura. Todos os ficheiros são ingeridos.
-
Delta-parquet
- Pasta que contém uma estrutura delta-parquet.
Pré-requisitos
Certifique-se de que a opção Utilizadores podem aceder a dados armazenados no OneLake com aplicações externas ao Fabric está ativada nas definições de inquilino do OneLake.
Uma área de trabalho do Fabric diferente da Minha área de trabalho predefinida.
A função de Administrador tem de ser atribuída ao utilizador que executa a configuração inicial da área de trabalho para o ambiente para os outros utilizadores no mesmo ambiente.
A área de trabalho do Fabric precisa de ser partilhada com o Principal de serviço de Produção de Informações do Processo com uma função de Administrador. Para registar o principal de serviço da Produção de Informações do Processo, siga os passos em Instalar ferramentas do Azure.
Tem de ser criado um Fabric Lakehouse nesta área de trabalho com os dados em formatos suportados.
Importante
O item a seguir não é atualmente suportado: Fabric Lakehouses com o suporte de Esquema ativado.
Os dados CSV no seu Lakehouse deverão satisfazer os seguintes requisitos do formato de ficheiro CSV:
- Tipo de compressão: nenhum
- Delimitador de colunas: vírgula (,)
- Delimitador de linhas: predefinição e codificação. Por exemplo, Predefinição (\r,\n ou \r\n)
Todos os dados têm de estar no formato de registo de eventos final e satisfazerem os requisitos listados em Requisitos de dados. Os dados deverão estar prontos para serem mapeados para o esquema da extração de processos. Não está disponível nenhuma transformação após a ingestão.
O tamanho (largura) da linha do cabeçalho está atualmente limitado a 1 MB.
Importante
Certifique-se de que o carimbo de data/hora representado no seu ficheiro CSV segue o formato da norma ISO 8601 (por exemplo, YYYY-MM-DD HH:MM:SS.sss ou YYYY-MM-DDTHH:MM:SS.sss).
Ligar ao Fabric OneLake
No painel de navegação à esquerda, selecione Process Mining>Começar aqui.
No campo Nome do processo, introduza um nome para o processo.
No título Origem de dados, selecione Importar dados>OneLake>Continuar.
Selecione uma área de trabalho opcional do Power BI ou selecione Ignorar.
No ecrã Configuração da ligação, selecione a sua Área de trabalho do Fabric no menu pendente. Isto preenche o menu pendente do Lakehouse. No menu, selecione o lakehouse que contém os seus dados e selecione Seguinte.
Navegue pela estrutura de pastas do Lakehouse e selecione a tabela Delta, o ficheiro ou a pasta que contém os dados do registo de eventos.
Pode selecionar uma única tabela Delta, um único ficheiro ou uma pasta com vários ficheiros. Todos os ficheiros têm de ter os mesmos cabeçalhos e formato.
Selecione Seguinte.
No ecrã Mapear os dados, mapeie os dados para o esquema necessário.
Conclua a ligação selecionando Guardar e Analisar.
Estabelecer definições de atualização de dados incremental
Pode atualizar um processo ingerido do Fabric OneLake numa agenda, através de uma atualização completa ou incremental. Apesar de não haver políticas de retenção, pode ingerir dados incrementalmente utilizando um dos seguintes métodos:
Se selecionou uma única tabela Delta na secção anterior, anexe mais dados à tabela selecionada.
Se selecionou um único ficheiro na secção anterior, anexe mais dados ao ficheiro selecionado.
Se selecionou uma pasta na secção anterior, adicione ficheiros incrementais à pasta selecionada.
Importante
Quando adiciona ficheiros incrementais a uma pasta ou subpasta selecionada, certifique-se de que indica a ordem de incremento ao nomear ficheiros com datas como AAAMMDD.csv ou AAAAMMDDHHMMSS.csv.
Para atualizar um processo:
Aceda à página Detalhes do processo.
Selecione Definições de Atualização.
No ecrã Agendar atualização, conclua os seguintes passos:
- Ative o comutador Manter os seus dados atualizados.
- Nas listas pendentes Atualizar dados a cada, selecione a frequência da atualização.
- Nos campos Começar às, selecione a data e hora da atualização.
- Ative o comutador Atualização incremental.