Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Neste tutorial, você criará um pipeline para mover OData de uma fonte Northwind para um destino Lakehouse e enviar uma notificação por e-mail quando o pipeline for concluído.
Pré-requisitos
Para começar, você deve concluir os seguintes pré-requisitos:
- Verifique se você tem um workspace habilitado pelo Microsoft Fabric que não seja o Meu Workspace padrão.
Criar um Lakehouse
Para começar, primeiro você precisa criar um lakehouse. Um lakehouse é um data lake otimizado para análise. Neste tutorial, você criará um lakehouse que é usado como um destino para o fluxo de dados.
Acesse o workspace habilitado pelo Fabric.
Selecione Lakehouse no menu criar.
Insira um Nome para o lakehouse.
Selecione Criar.
Agora que criou um lakehouse, você pode configurar o fluxo de dados.
Criação de um fluxo de dados
Um fluxo de dados é uma transformação de dados reutilizável que pode ser usada em um pipeline. Neste tutorial, você criará um fluxo de dados que obtém dados de uma fonte OData e grava os dados em um destino lakehouse.
Acesse o workspace habilitado pelo Fabric.
Selecione Fluxo de Dados Gen2 no menu criar.
Ingerir os dados da fonte OData.
Selecione Obter dados e, em seguida, selecione Mais.
Em Escolher fonte de dados, pesquise OData e selecione o conector OData.
Insira a URL da fonte OData. Para este tutorial, use o serviço de exemplo OData.
Selecione Avançar.
Selecione a Entidade que você deseja ingerir. Neste tutorial, use a entidade Orders.
Selecione Criar.
Agora que você ingeriu os dados da fonte OData, você pode configurar o destino lakehouse.
Para ingerir os dados no destino lakehouse:
Selecione Adicionar destino de dados.
Selecione Lakehouse.
Configure a conexão que você deseja usar para se conectar ao lakehouse. As configurações padrão são boas.
Selecione Avançar.
Navegue até o workspace em que você criou o lakehouse.
Selecione o lakehouse que você criou na etapa anterior.
Confirme o nome da tabela.
Selecione Avançar.
Confirme o método de atualização e selecione Salvar configurações.
Publique o fluxo de dados.
Importante
Quando o primeiro Fluxo de Dados Gen2 for criado em um espaço de trabalho, os itens do Lakehouse e Warehouse serão provisionados junto com seus modelos semânticos e do ponto de extremidade de análise SQL relacionados. Esses itens são compartilhados por todos os fluxos de dados no espaço de trabalho e são necessários para a operação do Fluxo de Dados Gen2, não devem ser excluídos e não devem ser usados diretamente pelos usuários. Os itens são um detalhe de implementação do Fluxo de Dados Gen2. Os itens não são visíveis no espaço de trabalho, mas podem estar acessíveis em outras experiências, como as experiências de Notebook, ponto de extremidade do SQL, Lakehouse e Warehouse. Você pode reconhecer os itens pelo prefixo no nome. O prefixo dos itens é "DataflowsStaging".
Agora que você carregou os dados para o destino *lakehouse*, você pode configurar seu pipeline.
Criar um pipeline
Um pipeline é um fluxo de trabalho que pode ser usado para automatizar o processamento de dados. Neste tutorial, você criará um pipeline que executa o Dataflow Gen2 criado no procedimento anterior.
Navegue de volta à página de Visão Geral do Workspace e selecione Pipelines no menu criar.
Forneça um nome para o fluxo de trabalho.
Selecione a atividade Fluxo de dados.
Selecione o Fluxo de dados que você criou no procedimento anterior na lista suspensa Fluxo de dados em Configurações.
Adicione uma atividade do Outlook do Office 365.
Configure a atividade do Outlook do Office 365 para enviar notificação por email.
Executar e agendar o pipeline
Nesta seção, você executa e agenda o pipeline. Esse agendamento permite que você execute o pipeline periodicamente.
Vá até seu workspace.
Abra o menu suspenso do pipeline que você criou no procedimento anterior e selecione Agendar.
Em Execução agendada, selecione Ativada.
Forneça o cronograma que você deseja usar para rodar o pipeline.
- Repita, por exemplo, a cada Dia ou a cada Minuto.
- Se selecionar Diariamente, você também pode selecionar a Hora.
- Iniciar em uma Data específica.
- Terminar em uma Data específica.
- Selecione o Fuso horário.
Selecione Aplicar para aplicar as alterações.
Agora você criou um pipeline que é executado de forma agendada, atualiza os dados no lakehouse e envia uma notificação por e-mail. Você pode verificar o status do pipeline acessando o Hub Monitor. Você também pode verificar o status do pipeline acessando Pipeline e selecionando a guia Histórico de Execuções no menu suspenso.
Conteúdo relacionado
Este exemplo mostra como usar um fluxo de dados em um pipeline com o Data Factory no Microsoft Fabric. Você aprendeu a:
- Criar um fluxo de dados.
- Criar um pipeline invocando seu fluxo de dados.
- Execute e agende seu pipeline.
Em seguida, avance para saber mais sobre como monitorar suas execuções de pipeline.