Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Neste guia de início rápido, você aprenderá como fluxos de dados e pipelines trabalham juntos para criar uma solução poderosa de Data Factory. Você limpará dados com fluxos de dados e os moverá com pipelines.
Pré-requisitos
Antes de começar, você precisa:
- Uma conta de locatário com uma assinatura ativa. Crie uma conta gratuita.
- Um espaço de trabalho habilitado para Microsoft Fabric: configure um espaço de trabalho que não seja o Meu Espaço de Trabalho padrão.
- Um banco de dados SQL do Azure com dados de tabela.
- Uma conta de Armazenamento de Blobs.
Comparar fluxos de dados e pipelines
O Dataflow Gen2 fornece uma interface low-code com 300+ dados e transformações baseadas em IA. Você pode facilmente limpar, preparar e transformar dados com flexibilidade. Os pipelines oferecem recursos avançados de orquestração de dados para compor fluxos de trabalho de dados flexíveis que atendam às necessidades da sua empresa.
Em um pipeline, você pode criar agrupamentos lógicos de atividades que executam uma tarefa. Isso pode incluir chamar um fluxo de dados para limpar e preparar seus dados. Embora haja alguma sobreposição de funcionalidades entre os dois, sua escolha depende se você precisa de todos os recursos de pipelines ou pode usar os recursos mais simples de fluxos de dados. Para obter mais informações, consulte o Guia de decisão do Fabric.
Transforme dados com fluxos de dados
Siga estas etapas para configurar seu fluxo de dados.
Criar um fluxo de dados
Selecione seu espaço de trabalho habilitado para malha, depois Novo e escolha Dataflow Gen2.
No editor de fluxo de dados, selecione Importar do SQL Server.
Obter dados
Na caixa de diálogo Conectar à fonte de dados , insira os detalhes do banco de dados SQL do Azure e selecione Avançar. Use o banco de dados de exemplo AdventureWorksLT indicado nos pré-requisitos.
Selecione os dados a serem transformados, como SalesLT.Customer, e use Selecionar tabelas relacionadas para incluir tabelas relacionadas. Em seguida, selecione Criar.
Transforme seus dados
Selecione Vista de diagrama na barra de estado ou no menu Ver no editor do Power Query.
Selecione com o botão direito do mouse a consulta SalesLT Customer ou selecione as reticências verticais à direita da consulta e, em seguida, selecione Mesclar consultas.
Configure a mesclagem com SalesLTOrderHeader como a tabela direita, CustomerID como a coluna de junção e Left outer como o tipo de junção. Selecione OK.
Adicione um destino de dados selecionando o símbolo do banco de dados com uma seta. Escolha o banco de dados SQL do Azure como o tipo de destino.
Forneça os detalhes para sua conexão de banco de dados SQL do Azure onde a consulta de mesclagem deve ser publicada. Neste exemplo, também usamos o banco de dados AdventureWorksLT que usamos como fonte de dados para o destino.
Escolha um banco de dados para armazenar os dados e forneça um nome de tabela e, em seguida, selecione Avançar.
Aceite as configurações padrão na caixa de diálogo Escolher configurações de destino e selecione Salvar configurações.
Selecione Publicar no editor de fluxo de dados para publicar o fluxo de dados.
Mover dados utilizando pipelines
Agora que você criou um Dataflow Gen2, pode operá-lo num pipeline. Neste exemplo, você copia os dados gerados do fluxo de dados para o formato de texto em uma conta de Armazenamento de Blob do Azure.
Criar um novo pipeline
No espaço de trabalho, selecione Novo e, em seguida, Pipeline.
Nomeie seu pipeline e selecione Criar.
Configure seu fluxo de dados
Adicione uma atividade de fluxo de dados ao seu pipeline selecionando Fluxo de dados na guia Atividades .
Selecione o fluxo de dados na tela do pipeline, vá para a guia Configurações e escolha o fluxo de dados criado anteriormente.
Selecione Salvar e, em seguida, Executar para preencher a tabela de consulta mesclada.
Adicionar uma atividade de cópia
Selecione Copiar dados na tela ou use o Assistente de cópia na guia Atividades .
Escolha Banco de Dados SQL do Azure como a fonte de dados e selecione Avançar.
Crie uma conexão com sua fonte de dados selecionando Criar nova conexão. Preencha as informações de conexão necessárias no painel e insira o AdventureWorksLT para o banco de dados, onde geramos a consulta de mesclagem no fluxo de dados. Em seguida, selecione Avançar.
Selecione a tabela gerada na etapa de fluxo de dados anterior e, em seguida, selecione Avançar.
Para o seu destino, escolha Armazenamento de Blobs do Azure e selecione Avançar.
Crie uma conexão com seu destino selecionando Criar nova conexão. Forneça os detalhes da sua ligação e, em seguida, selecione Seguinte.
Selecione o caminho da pasta e forneça um nome de arquivo e, em seguida, selecione Avançar.
Selecione Avançar novamente para aceitar o formato de arquivo padrão, o delimitador de coluna, o delimitador de linha e o tipo de compactação, incluindo opcionalmente um cabeçalho.
Finalize suas configurações. Em seguida, revise e selecione Salvar + Executar para concluir o processo.
Projete seu pipeline e salve para executar e carregar dados
Para executar a atividade Copy
após a atividade Dataflow , arraste de Succeeded na atividade Dataflow para a atividade Copy . A atividade Copy só é executada depois que a atividade Dataflow tiver sucesso.
Selecione Salvar para salvar seu pipeline. Em seguida, selecione Executar para executar o pipeline e carregar os dados.
Programar a execução do pipeline
Depois de concluir o desenvolvimento e o teste do pipeline, você pode programá-lo para ser executado automaticamente.
Na guia Home da janela do editor de pipeline, selecione Agenda.
Configure a agenda conforme necessário. O exemplo aqui mostra que o pipeline funcione diariamente às 20:00 até o final do ano.
Conteúdo relacionado
Este exemplo mostra como criar e configurar um Dataflow Gen2 para criar uma consulta de mesclagem e armazená-la em um banco de dados SQL do Azure e, em seguida, copiar dados do banco de dados para um arquivo de texto no Armazenamento de Blobs do Azure. Você aprendeu a:
- Crie um fluxo de dados.
- Transforme dados com o fluxo de dados.
- Crie um pipeline usando o fluxo de dados.
- Ordenar a execução das etapas no pipeline.
- Copie dados com o Assistente de Cópia.
- Execute e agende seu pipeline.
Em seguida, avance para saber mais sobre como monitorizar as suas execuções de pipelines.