Partilhar via


Visão geral das integrações

Há muitos conectores de dados, ferramentas e integrações que funcionam perfeitamente com a plataforma para ingestão, orquestração, saída e consulta de dados. Este documento é uma visão geral de alto nível sobre os conectores, ferramentas e integrações disponíveis. Informações detalhadas são fornecidas para cada conector, juntamente com links para sua documentação completa.

Para páginas de visão geral sobre um tipo específico de integração, selecione um dos seguintes botões.

Tabelas de comparação

As tabelas a seguir resumem os recursos de cada item. Selecione a guia correspondente a conectores ou ferramentas e integrações. Cada nome de item está vinculado à sua descrição detalhada.

A tabela a seguir resume os conectores disponíveis e seus recursos:

Nome Ingerir Exportação Orquestrar Pergunta
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Faísca Apache ✔️ ✔️ ✔️
Apache Spark para Azure Synapse Analytics ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Fábrica de Dados do Azure ✔️ ✔️
Grade de Eventos do Azure ✔️
Hubs de Eventos do Azure ✔️
Funções do Azure ✔️ ✔️
Centros IoT do Azure ✔️
Azure Stream Analytics ✔️
Córrego Cribl ✔️
Bit fluente ✔️
JDBC ✔️
Aplicações Lógicas ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Telemetria aberta ✔️
Aplicações Power ✔️ ✔️
Automatize o poder ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk Transitário Universal ✔️
Telegraf ✔️

Descrições detalhadas

A seguir estão descrições detalhadas de conectores e ferramentas e integrações. Selecione a guia correspondente a conectores ou ferramentas e integrações. Todos os itens disponíveis estão resumidos nas tabelas de comparação acima.

Apache Kafka

O Apache Kafka é uma plataforma de streaming distribuída para a construção de pipelines de dados de streaming em tempo real que movem dados de forma confiável entre sistemas ou aplicativos. Kafka Connect é uma ferramenta para streaming escalável e confiável de dados entre o Apache Kafka e outros sistemas de dados. O Kafka Sink serve como o conector de Kafka e não requer o uso de código. Este é certificado Gold pela Confluent - passou por uma revisão abrangente e testes de qualidade, completude das funcionalidades, conformidade com os padrões e desempenho.

O Apache Flink é uma estrutura e mecanismo de processamento distribuído para cálculos com estado em fluxos de dados ilimitados e limitados. O conector implementa o coletor de dados para mover dados entre clusters do Azure Data Explorer e Flink. Usando o Azure Data Explorer e o Apache Flink, você pode criar aplicativos rápidos e escaláveis direcionados a cenários orientados por dados. Por exemplo, aprendizado de máquina (ML), Extract-Transform-Load (ETL) e Log Analytics.

Apache Log4J 2

Log4J é um framework de registro popular para aplicativos Java mantido pela Apache Foundation. O Log4j permite que os desenvolvedores controlem quais instruções de log são saídas com granularidade arbitrária com base no nome, nível do registrador e padrão de mensagem. O coletor Apache Log4J 2 permite que você transmita seus dados de log para seu banco de dados, onde você pode analisar e visualizar seus logs em tempo real.

Apache Spark

O Apache Spark é um mecanismo de análise unificado para processamento de dados em grande escala. O conector Spark é um projeto de código aberto que pode ser executado em qualquer cluster Spark. Ele implementa a fonte de dados e o coletor de dados para mover dados de ou para clusters do Spark. Usando o conector Apache Spark, você pode criar aplicativos rápidos e escaláveis visando cenários orientados por dados. Por exemplo, aprendizado de máquina (ML), Extract-Transform-Load (ETL) e Log Analytics. Com o conector, seu banco de dados se torna um armazenamento de dados válido para operações padrão de origem e coletor do Spark, como leitura, gravação e writeStream.

Apache Spark para Azure Synapse Analytics

O Apache Spark é uma estrutura de processamento paralelo que suporta processamento na memória para aumentar o desempenho de aplicativos analíticos de big data. Apache Spark no Azure Synapse Analytics é uma das implementações da Microsoft do Apache Spark na nuvem. Você pode acessar um banco de dados do Synapse Studio com o Apache Spark for Azure Synapse Analytics.

Azure Cosmos DB

A ligação de dados do feed de alterações do Azure Cosmos DB é um pipeline de ingestão que monitora o feed de alterações do Cosmos DB e introduz os dados na sua base de dados.

Azure Data Factory

O Azure Data Factory (ADF) é um serviço de integração de dados baseado na nuvem que permite integrar diferentes armazenamentos de dados e executar atividades nos dados.

Azure Event Grid

A ingestão do Event Grid é um pipeline que escuta o armazenamento do Azure e atualiza o seu banco de dados para captar informações quando ocorrem eventos inscritos. Você pode configurar a ingestão contínua do Armazenamento do Azure (Armazenamento de Blobs e ADLSv2) com uma assinatura da Grade de Eventos do Azure para notificações de criação ou renomeação de blob, e a transmissão das notificações por meio dos Hubs de Eventos do Azure.

Hubs de Eventos do Azure

Os Hubs de Eventos do Azure são uma plataforma de streaming de big data e um serviço de ingestão de eventos. Você pode configurar a ingestão contínua a partir de Hubs de Eventos gerenciados pelo cliente.

Funções do Azure

O Azure Functions permite que você execute código sem servidor na nuvem em uma programação ou em resposta a um evento. Com as associações de entrada e saída para o Azure Functions, você pode integrar seu banco de dados em seus fluxos de trabalho para ingerir dados e executar consultas em seu banco de dados.

Azure IoT Hubs

O Hub IoT do Azure é um serviço gerenciado, hospedado na nuvem, que atua como um hub de mensagens central para comunicação bidirecional entre seu aplicativo IoT e os dispositivos que ele gerencia. Você pode configurar a ingestão contínua de Hubs IoT geridos pelo cliente, utilizando o seu ponto de extremidade integrado compatível com Hubs de Eventos para mensagens de dispositivos para a nuvem.

  • Funcionalidade: Ingestão
  • Tipo de ingestão suportado: Batching, Streaming
  • Casos de uso: Dados da IoT
  • Documentação:Conexão de dados do Hub IoT

Azure Stream Analytics

O Azure Stream Analytics é uma análise em tempo real e um mecanismo complexo de processamento de eventos projetado para processar grandes volumes de dados de streaming rápido de várias fontes simultaneamente.

Córrego Cribl

O Cribl stream é um mecanismo de processamento que coleta, processa e transmite com segurança dados de eventos da máquina de qualquer fonte. Ele permite que você analise e processe esses dados para qualquer destino para análise.

Bit fluente

Fluent Bit é um agente de código aberto que coleta logs, métricas e rastreamentos de várias fontes. Ele permite filtrar, modificar e agregar dados de eventos antes de enviá-los para o armazenamento.

JDBC

O Java Database Connectivity (JDBC) é uma API Java utilizada para ligar a bases de dados e executar consultas. Pode utilizar o JDBC para ligar ao Azure Data Explorer.

Logic Apps

O conector Microsoft Logic Apps permite executar consultas e comandos automaticamente como parte de uma tarefa agendada ou acionada.

Logstash

O plug-in Logstash permite processar eventos do Logstash em um banco de dados do Azure Data Explorer para análise posterior.

Matlab

MATLAB é uma plataforma de programação e computação numérica usada para analisar dados, desenvolver algoritmos e criar modelos. Você pode obter um token de autorização no MATLAB para consultar seus dados no Azure Data Explorer.

NLog

NLog é uma plataforma de log flexível e gratuita para várias plataformas .NET, incluindo o padrão .NET. NLog permite que você escreva em vários destinos, como um banco de dados, arquivo ou console. Com NLog você pode alterar a configuração de registro on-the-fly. O coletor NLog é um destino para NLog que permite enviar suas mensagens de log para seu banco de dados. O plug-in fornece uma maneira eficiente de afundar seus logs para o cluster.

ODBC

Open Database Connectivity (ODBC) é uma interface de programação de aplicativos (API) amplamente aceita para acesso ao banco de dados. O Azure Data Explorer é compatível com um subconjunto do protocolo de comunicação do SQL Server (MS-TDS). Essa compatibilidade permite o uso do driver ODBC para SQL Server com o Azure Data Explorer.

Telemetria aberta

O conector OpenTelemetry suporta a ingestão de dados de muitos recetores em seu banco de dados. Ele funciona como uma ponte para ingerir dados gerados pela telemetria aberta para o seu banco de dados, personalizando o formato dos dados exportados de acordo com suas necessidades.

Power Apps

O Power Apps é um conjunto de aplicativos, serviços, conectores e plataforma de dados que fornece um ambiente de desenvolvimento rápido de aplicativos para criar aplicativos personalizados que se conectam aos dados da sua empresa. O conector do Power Apps é útil se você tiver uma coleção grande e crescente de dados de streaming no Azure Data Explorer e quiser criar um aplicativo de baixo código e altamente funcional para usar esses dados.

Power Automate

O Power Automate é um serviço de orquestração usado para automatizar processos de negócios. O Power Automate conector (anteriormente Microsoft Flow) permite orquestrar e agendar fluxos, enviar notificações e alertas, como parte de uma tarefa agendada ou acionada.

  • Funcionalidade: Ingestão, Exportação
  • Tipo de ingestão suportado: Batching
  • Casos de uso: Orquestração de dados
  • Documentação:Conector Microsoft Power Automate

Serilog

O Serilog é um framework de registo popular para aplicações .NET. O Serilog permite aos programadores controlar que instruções de registo são fornecidas com granularidade arbitrária com base no nome do logger, nível do logger e padrão de mensagem. O coletor Serilog, também conhecido como apêndice, transmite seus dados de log para seu banco de dados, onde você pode analisar e visualizar seus logs em tempo real.

Splunk

O Splunk Enterprise é uma plataforma de software que permite ingerir dados de várias fontes simultaneamente. O complemento Azure Data Explorer envia dados do Splunk para uma tabela em seu cluster.

Splunk Encaminhador Universal

Telegraf

O Telegraf é um agente de código aberto, leve e de consumo mínimo de memória, utilizado para coletar, processar e gravar dados de telemetria, incluindo logs, métricas e dados de IoT. Telegraf suporta centenas de plugins de entrada e saída. É amplamente utilizado e bem suportado pela comunidade de código aberto. O plugin de saída serve como o conector da Telegraf e suporta a ingestão de dados de muitos tipos de plugins de entrada em seu banco de dados.