Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Há muitos conectores de dados, ferramentas e integrações que funcionam perfeitamente com a plataforma para ingestão, orquestração, saída e consulta de dados. Este documento é uma visão geral de alto nível sobre os conectores, ferramentas e integrações disponíveis. Informações detalhadas são fornecidas para cada conector, juntamente com links para sua documentação completa.
Para páginas de visão geral sobre um tipo específico de integração, selecione um dos seguintes botões.
Tabelas de comparação
As tabelas a seguir resumem os recursos de cada item. Selecione a guia correspondente a conectores ou ferramentas e integrações. Cada nome de item está vinculado à sua descrição detalhada.
A tabela a seguir resume os conectores disponíveis e seus recursos:
| Nome | Ingerir | Exportação | Orquestrar | Pergunta |
|---|---|---|---|---|
| Apache Kafka | ✔️ | |||
| Apache Flink | ✔️ | |||
| Apache Log4J 2 | ✔️ | |||
| Faísca Apache | ✔️ | ✔️ | ✔️ | |
| Apache Spark para Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
| Azure Cosmos DB | ✔️ | |||
| Fábrica de Dados do Azure | ✔️ | ✔️ | ||
| Grade de Eventos do Azure | ✔️ | |||
| Hubs de Eventos do Azure | ✔️ | |||
| Funções do Azure | ✔️ | ✔️ | ||
| Centros IoT do Azure | ✔️ | |||
| Azure Stream Analytics | ✔️ | |||
| Córrego Cribl | ✔️ | |||
| Bit fluente | ✔️ | |||
| JDBC | ✔️ | |||
| Aplicações Lógicas | ✔️ | ✔️ | ✔️ | |
| Logstash | ✔️ | |||
| Matlab | ✔️ | |||
| NLog | ✔️ | |||
| ODBC | ✔️ | |||
| Telemetria aberta | ✔️ | |||
| Aplicações Power | ✔️ | ✔️ | ||
| Automatize o poder | ✔️ | ✔️ | ✔️ | |
| Serilog | ✔️ | |||
| Splunk | ✔️ | |||
| Splunk Transitário Universal | ✔️ | |||
| Telegraf | ✔️ |
Descrições detalhadas
A seguir estão descrições detalhadas de conectores e ferramentas e integrações. Selecione a guia correspondente a conectores ou ferramentas e integrações. Todos os itens disponíveis estão resumidos nas tabelas de comparação acima.
Apache Kafka
O Apache Kafka é uma plataforma de streaming distribuída para a construção de pipelines de dados de streaming em tempo real que movem dados de forma confiável entre sistemas ou aplicativos. Kafka Connect é uma ferramenta para streaming escalável e confiável de dados entre o Apache Kafka e outros sistemas de dados. O Kafka Sink serve como o conector de Kafka e não requer o uso de código. Este é certificado Gold pela Confluent - passou por uma revisão abrangente e testes de qualidade, completude das funcionalidades, conformidade com os padrões e desempenho.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Logs, Telemetria, Séries temporais
- SDK subjacente:Java
- Repositório: Microsoft Azure - https://github.com/Azure/kafka-sink-azure-kusto/
- Documentação:Ingerir dados do Apache Kafka
- Blog da comunidade:ingestão de Kafka no Azure Data Explorer
Apache Flink
O Apache Flink é uma estrutura e mecanismo de processamento distribuído para cálculos com estado em fluxos de dados ilimitados e limitados. O conector implementa o coletor de dados para mover dados entre clusters do Azure Data Explorer e Flink. Usando o Azure Data Explorer e o Apache Flink, você pode criar aplicativos rápidos e escaláveis direcionados a cenários orientados por dados. Por exemplo, aprendizado de máquina (ML), Extract-Transform-Load (ETL) e Log Analytics.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Streaming
- Casos de uso: Telemetria
- SDK subjacente:Java
- Repositório: Microsoft Azure - https://github.com/Azure/flink-connector-kusto/
- Documentação:Ingerir dados do Apache Flink
Apache Log4J 2
Log4J é um framework de registro popular para aplicativos Java mantido pela Apache Foundation. O Log4j permite que os desenvolvedores controlem quais instruções de log são saídas com granularidade arbitrária com base no nome, nível do registrador e padrão de mensagem. O coletor Apache Log4J 2 permite que você transmita seus dados de log para seu banco de dados, onde você pode analisar e visualizar seus logs em tempo real.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Logs
- SDK subjacente:Java
- Repositório: Microsoft Azure - https://github.com/Azure/azure-kusto-log4j
- Documentação:Ingerir dados com o conector Apache Log4J 2
- Blog da comunidade:Introdução ao Apache Log4J e ao Azure Data Explorer
Apache Spark
O Apache Spark é um mecanismo de análise unificado para processamento de dados em grande escala. O conector Spark é um projeto de código aberto que pode ser executado em qualquer cluster Spark. Ele implementa a fonte de dados e o coletor de dados para mover dados de ou para clusters do Spark. Usando o conector Apache Spark, você pode criar aplicativos rápidos e escaláveis visando cenários orientados por dados. Por exemplo, aprendizado de máquina (ML), Extract-Transform-Load (ETL) e Log Analytics. Com o conector, seu banco de dados se torna um armazenamento de dados válido para operações padrão de origem e coletor do Spark, como leitura, gravação e writeStream.
- Funcionalidade: Ingestão, Exportação
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Telemetria
- SDK subjacente:Java
- Repositório: Microsoft Azure - https://github.com/Azure/azure-kusto-spark/
- Documentação:Apache Spark connector
- Blog da comunidade:Pré-processamento de dados para o Azure Data Explorer para Azure Data Explorer com Apache Spark
Apache Spark para Azure Synapse Analytics
O Apache Spark é uma estrutura de processamento paralelo que suporta processamento na memória para aumentar o desempenho de aplicativos analíticos de big data. Apache Spark no Azure Synapse Analytics é uma das implementações da Microsoft do Apache Spark na nuvem. Você pode acessar um banco de dados do Synapse Studio com o Apache Spark for Azure Synapse Analytics.
- Funcionalidade: Ingestão, Exportação
- Tipo de ingestão suportado: Batching
- Casos de uso: Telemetria
- SDK subjacente:Java
- Documentação:Conectar-se a um espaço de trabalho do Azure Synapse
Azure Cosmos DB
A ligação de dados do feed de alterações do Azure Cosmos DB é um pipeline de ingestão que monitora o feed de alterações do Cosmos DB e introduz os dados na sua base de dados.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Alterar feed
- Documentação:Ingestão de dados do Azure Cosmos DB (visualização)
Azure Data Factory
O Azure Data Factory (ADF) é um serviço de integração de dados baseado na nuvem que permite integrar diferentes armazenamentos de dados e executar atividades nos dados.
- Funcionalidade: Ingestão, Exportação
- Tipo de ingestão suportado: Batching
- Casos de uso: Orquestração de dados
- Documentação:Copiar dados para seu banco de dados usando o Azure Data Factory
Azure Event Grid
A ingestão do Event Grid é um pipeline que escuta o armazenamento do Azure e atualiza o seu banco de dados para captar informações quando ocorrem eventos inscritos. Você pode configurar a ingestão contínua do Armazenamento do Azure (Armazenamento de Blobs e ADLSv2) com uma assinatura da Grade de Eventos do Azure para notificações de criação ou renomeação de blob, e a transmissão das notificações por meio dos Hubs de Eventos do Azure.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Processamento de eventos
- Documentação:Conexão de dados da grade de eventos
Hubs de Eventos do Azure
Os Hubs de Eventos do Azure são uma plataforma de streaming de big data e um serviço de ingestão de eventos. Você pode configurar a ingestão contínua a partir de Hubs de Eventos gerenciados pelo cliente.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Documentação:Conexão de dados dos Hubs de Eventos do Azure
Funções do Azure
O Azure Functions permite que você execute código sem servidor na nuvem em uma programação ou em resposta a um evento. Com as associações de entrada e saída para o Azure Functions, você pode integrar seu banco de dados em seus fluxos de trabalho para ingerir dados e executar consultas em seu banco de dados.
- Funcionalidade: Ingestão, Exportação
- Tipo de ingestão suportado: Batching
- Casos de uso: integrações de fluxo de trabalho
- Documentação:Integrando o Azure Functions usando ligações de entrada e saída (visualização)
- Blog da comunidade:Ligações do Azure Data Explorer (Kusto) para o Azure Functions
Azure IoT Hubs
O Hub IoT do Azure é um serviço gerenciado, hospedado na nuvem, que atua como um hub de mensagens central para comunicação bidirecional entre seu aplicativo IoT e os dispositivos que ele gerencia. Você pode configurar a ingestão contínua de Hubs IoT geridos pelo cliente, utilizando o seu ponto de extremidade integrado compatível com Hubs de Eventos para mensagens de dispositivos para a nuvem.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Dados da IoT
- Documentação:Conexão de dados do Hub IoT
Azure Stream Analytics
O Azure Stream Analytics é uma análise em tempo real e um mecanismo complexo de processamento de eventos projetado para processar grandes volumes de dados de streaming rápido de várias fontes simultaneamente.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Processamento de eventos
- Documentação:Ingestão de dados do Azure Stream Analytics
Córrego Cribl
O Cribl stream é um mecanismo de processamento que coleta, processa e transmite com segurança dados de eventos da máquina de qualquer fonte. Ele permite que você analise e processe esses dados para qualquer destino para análise.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Processamento de dados da máquina, incluindo logs, métricas, dados de instrumentação
- Documentação:Ingerir dados do Cribl Stream no Azure Data Explorer
Bit fluente
Fluent Bit é um agente de código aberto que coleta logs, métricas e rastreamentos de várias fontes. Ele permite filtrar, modificar e agregar dados de eventos antes de enviá-los para o armazenamento.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching
- Casos de uso: Logs, métricas, rastreamentos
- Repositório:fluent-bit Kusto Output Plugin
- Documentação:Ingerir dados com Fluent Bit no Azure Data Explorer
- Blog da comunidade:Introdução ao bit Fluent e ao Azure Data Explorer
JDBC
O Java Database Connectivity (JDBC) é uma API Java utilizada para ligar a bases de dados e executar consultas. Pode utilizar o JDBC para ligar ao Azure Data Explorer.
- Funcionalidade: Consulta, visualização
- SDK subjacente:Java
- Documentação:Conectar-se ao Azure Data Explorer com JDBC
Logic Apps
O conector Microsoft Logic Apps permite executar consultas e comandos automaticamente como parte de uma tarefa agendada ou acionada.
- Funcionalidade: Ingestão, Exportação
- Tipo de ingestão suportado: Batching
- Casos de uso: Orquestração de dados
- Documentação:Aplicativos Lógicos da Microsoft e Azure Data Explorer
Logstash
O plug-in Logstash permite processar eventos do Logstash em um banco de dados do Azure Data Explorer para análise posterior.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching
- Casos de uso: Logs
- SDK subjacente:Java
- Repositório: Microsoft Azure - https://github.com/Azure/logstash-output-kusto/
- Documentação:Ingerir dados do Logstash
- Blog da comunidade:Como migrar do Elasticsearch para o Azure Data Explorer
Matlab
MATLAB é uma plataforma de programação e computação numérica usada para analisar dados, desenvolver algoritmos e criar modelos. Você pode obter um token de autorização no MATLAB para consultar seus dados no Azure Data Explorer.
- Funcionalidade: Consulta
- Documentação:Consultar dados usando MATLAB
NLog
NLog é uma plataforma de log flexível e gratuita para várias plataformas .NET, incluindo o padrão .NET. NLog permite que você escreva em vários destinos, como um banco de dados, arquivo ou console. Com NLog você pode alterar a configuração de registro on-the-fly. O coletor NLog é um destino para NLog que permite enviar suas mensagens de log para seu banco de dados. O plug-in fornece uma maneira eficiente de afundar seus logs para o cluster.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Telemetria, Logs, Métricas
- SDK subjacente:.NET
- Repositório: Microsoft Azure - https://github.com/Azure/azure-kusto-nlog-sink
- Documentação:Ingerir dados com o coletor NLog
- Blog da comunidade:Introdução ao coletor NLog e ao Azure Data Explorer
ODBC
Open Database Connectivity (ODBC) é uma interface de programação de aplicativos (API) amplamente aceita para acesso ao banco de dados. O Azure Data Explorer é compatível com um subconjunto do protocolo de comunicação do SQL Server (MS-TDS). Essa compatibilidade permite o uso do driver ODBC para SQL Server com o Azure Data Explorer.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Telemetria, Logs, Métricas
- Documentação:Conectar-se ao Azure Data Explorer com ODBC
Telemetria aberta
O conector OpenTelemetry suporta a ingestão de dados de muitos recetores em seu banco de dados. Ele funciona como uma ponte para ingerir dados gerados pela telemetria aberta para o seu banco de dados, personalizando o formato dos dados exportados de acordo com suas necessidades.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: rastreamentos, métricas, logs
- SDK subjacente:Go
- Repositório: Telemetria Aberta - https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Documentação:Ingerir dados do OpenTelemetry
- Blog da Comunidade:Introdução à Telemetria Aberta e ao Azure Data Explorer
Power Apps
O Power Apps é um conjunto de aplicativos, serviços, conectores e plataforma de dados que fornece um ambiente de desenvolvimento rápido de aplicativos para criar aplicativos personalizados que se conectam aos dados da sua empresa. O conector do Power Apps é útil se você tiver uma coleção grande e crescente de dados de streaming no Azure Data Explorer e quiser criar um aplicativo de baixo código e altamente funcional para usar esses dados.
- Funcionalidade: Consulta, Ingestão, Exportação
- Tipo de ingestão suportado: Batching
- Documentação:Usar o Power Apps para consultar dados no Azure Data Explorer
Power Automate
O Power Automate é um serviço de orquestração usado para automatizar processos de negócios. O Power Automate conector (anteriormente Microsoft Flow) permite orquestrar e agendar fluxos, enviar notificações e alertas, como parte de uma tarefa agendada ou acionada.
- Funcionalidade: Ingestão, Exportação
- Tipo de ingestão suportado: Batching
- Casos de uso: Orquestração de dados
- Documentação:Conector Microsoft Power Automate
Serilog
O Serilog é um framework de registo popular para aplicações .NET. O Serilog permite aos programadores controlar que instruções de registo são fornecidas com granularidade arbitrária com base no nome do logger, nível do logger e padrão de mensagem. O coletor Serilog, também conhecido como apêndice, transmite seus dados de log para seu banco de dados, onde você pode analisar e visualizar seus logs em tempo real.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Logs
- SDK subjacente:.NET
- Repositório: Microsoft Azure - https://github.com/Azure/serilog-sinks-azuredataexplorer
- Documentação:Ingerir dados com o coletor Serilog
- Blog da comunidade:Introdução ao coletor Serilog e ao Azure Data Explorer
Splunk
O Splunk Enterprise é uma plataforma de software que permite ingerir dados de várias fontes simultaneamente. O complemento Azure Data Explorer envia dados do Splunk para uma tabela em seu cluster.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching
- Casos de uso: Logs
- SDK subjacente:Python
- Repositório: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Documentação:Ingerir dados do Splunk
- Splunk Base:Microsoft Azure Data Explorer Add-On para Splunk
- Blog da comunidade:Introdução ao complemento do Microsoft Azure Data Explorer para Splunk
Splunk Encaminhador Universal
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching
- Casos de uso: Logs
- Repositório: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk
- Documentação:Ingerir dados do Encaminhador Universal do Splunk para o Azure Data Explorer
- Blog da comunidade:Ingerir dados usando o encaminhador Universal do Splunk no Azure Data Explorer
Telegraf
O Telegraf é um agente de código aberto, leve e de consumo mínimo de memória, utilizado para coletar, processar e gravar dados de telemetria, incluindo logs, métricas e dados de IoT. Telegraf suporta centenas de plugins de entrada e saída. É amplamente utilizado e bem suportado pela comunidade de código aberto. O plugin de saída serve como o conector da Telegraf e suporta a ingestão de dados de muitos tipos de plugins de entrada em seu banco de dados.
- Funcionalidade: Ingestão
- Tipo de ingestão suportado: Batching, Streaming
- Casos de uso: Telemetria, Logs, Métricas
- SDK subjacente:Go
- Repositório: InfluxData - https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Documentação:Ingerir dados da Telegraf
- Blog da comunidade:Novo plug-in de saída do Azure Data Explorer para Telegraf permite o monitoramento SQL em grande escala