Freigeben über


Übersicht über Integrationen

Es gibt viele Datenconnectors, Tools und Integrationen, die nahtlos mit der Plattform für Aufnahme, Orchestrierung, Ausgabe und Datenabfrage funktionieren. Dieses Dokument ist eine allgemeine Übersicht über die verfügbaren Connectors, Tools und Integrationen. Detaillierte Informationen werden für jeden Connector zusammen mit Links zu seiner vollständigen Dokumentation bereitgestellt.

Wenn Sie Übersichtsseiten für einen bestimmten Integrationstyp anzeigen möchten, wählen Sie eine der folgenden Schaltflächen aus.

Vergleichstabellen

In den folgenden Tabellen sind die Funktionen der einzelnen Elemente zusammengefasst. Wählen Sie die Registerkarte für Connectors oder Tools und Integrationen aus. Jeder Elementname ist mit seiner detaillierten Beschreibung verknüpft.

Die folgende Tabelle enthält eine Übersicht über die verfügbaren Konnektors und ihre Funktionen:

Name Erfassen Exportieren Orchestrieren Abfrage
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Apache Spark für Azure Synapse Analytics ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Azure-Ereignisraster ✔️
Azure Event Hubs ✔️
Azure Functions ✔️ ✔️
Azure IoT Hubs ✔️
Azure Stream Analytics ✔️
Cribl Stream ✔️
Fluent Bit ✔️
JDBC ✔️
Logik-Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Telemetrie öffnen ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk Universal forwarder ✔️
Telegraf ✔️

Detaillierte Beschreibungen

Im Folgenden finden Sie detaillierte Beschreibungen von Connectors und Tools und Integrationen. Wählen Sie die Registerkarte für Connectors oder Tools und Integrationen aus. Alle verfügbaren Elemente werden in den obigen Vergleichstabellen zusammengefasst.

Apache Kafka

Apache Kafka ist eine verteilte Streaming-Plattform zum Aufbau von Echtzeit-Streaming-Datenpipelines, die Daten zuverlässig zwischen Systemen oder Anwendungen übertragen. Kafka Connect ist ein Tool zum skalierbaren und zuverlässigen Streamen von Daten zwischen Apache Kafka und anderen Datensystemen. Die Kafka-Senke dient als Konnektor für Kafka und erfordert keine Verwendung von Code. Von Confluent als „Gold Certified“ ausgezeichnet – Qualität, Vollständigkeit der Features, Einhaltung von Standards und Leistung wurden umfassend geprüft und getestet.

Apache Flink ist ein Framework und eine verteilte Verarbeitungs-Engine für zustandsbehaftete Berechnungen über unbegrenzte und gebundene Datenströme. Der Konnektor implementiert Datensenken zum Verschieben von Daten zwischen Azure Data Explorer und Flink-Clustern. Mit Azure Data Explorer und Apache Flink können Sie schnelle und skalierbare Anwendungen für datengesteuerte Szenarien erstellen. Beispiele dafür sind maschinelles Lernen (Machine Learning, ML), Extrahieren, Transformieren und Laden (Extract-Transform-Load, ETL) und Protokollanalysen (Log Analytics).

Apache Log4J 2

Log4J ist ein beliebtes Logging-Framework für Java-Anwendungen, das von der Apache Foundation gepflegt wird. Mit Log4j können Entwickler steuern, welche Protokollanweisungen ausgehend vom Namen der Protokollierung, der Protokollierungsebene und dem Nachrichtenmuster mit beliebiger Granularität ausgegeben werden sollen. Mit der Apache Log4J 2-Senke können Sie Ihre Protokolldaten in Ihre Datenbank streamen und sie dort in Echtzeit analysieren und visualisieren.

Apache Spark

Apache Spark ist eine einheitliche Analyse-Engine für die Verarbeitung großer Datenmengen. Der Spark-Konnektor ist ein Open-Source-Projekt, das auf jedem Spark-Cluster ausgeführt werden kann. Er implementiert Datenquellen und Datensenken zum Verschieben von Daten zu oder aus Spark-Clustern. Mit dem Apache Spark-Konnektor können Sie schnelle und skalierbare Anwendungen für datengesteuerte Szenarien erstellen. Beispiele dafür sind maschinelles Lernen (Machine Learning, ML), Extrahieren, Transformieren und Laden (Extract-Transform-Load, ETL) und Protokollanalysen (Log Analytics). Durch den Konnektor wird Ihre Datenbank ein gültiger Datenspeicher für Spark-Standardvorgänge für Quellen und Senken wie „read“, „write“ und „writeStream“.

Apache Spark für Azure Synapse Analytics

Apache Spark ist ein paralleles Verarbeitungsframework, das In-Memory-Verarbeitung unterstützt, um die Leistung von Big-Data-Analyseanwendungen zu steigern. Apache Spark in Azure Synapse Analytics ist eine der Implementierungen von Apache Spark in der Cloud von Microsoft. Sie können von Synapse Studio aus mit Apache Spark für Azure Synapse Analytics auf eine Datenbank zugreifen.

Azure Cosmos DB (ein Microsoft-Datenbankdienst)

Die Azure Cosmos DB-Änderungsfeed-Datenverbindung ist eine Erfassungspipeline, die Ihrem Cosmos DB-Änderungsfeed lauscht und die Daten in Ihrer Datenbank erfasst.

Azure Data Factory

Azure Data Factory (ADF) ist ein Cloud-basierter Datenintegrationsdienst, mit dem Sie verschiedene Datenspeicher integrieren und Aktivitäten mit den Daten durchführen können.

Azure-Ereignisraster

Die Event Grid-Erfassung ist eine Pipeline, die auf Azure Storage lauscht und Ihre Datenbank aktualisiert, um Informationen zu pullen, wenn abonnierte Ereignisse auftreten. Sie können eine kontinuierliche Erfassung aus dem Azure-Speicher (Blobspeicher und ADLSv2) mit einem Azure-Event-Grid-Abonnement für Blob-generierte oder von einem Blob umbenannte Benachrichtigungen konfigurieren und die Benachrichtigungen über Azure Event Hubs streamen.

  • Funktionalität: Erfassung
  • Unterstützte Erfassungstypen: Batching, Streaming
  • Anwendungsfälle: Ereignisverarbeitung
  • Dokumentation:Event Grid Datenverbindung

Azure Event Hubs

Azure Event Hubs ist eine Big-Data-Streaming-Plattform und ein Event-Ingestion-Service. Sie können die kontinuierliche Datenerfassung aus von vom Kunden verwalteten Event Hubs konfigurieren.

Azure-Funktionen

Azure Functions ermöglichen die Ausführung von serverlosem Code in der Cloud nach einem Zeitplan oder in Reaktion auf ein Ereignis. Mit Eingabe- und Ausgabebindungen für Azure Functions können Sie Ihre Datenbank in Ihre Workflows integrieren, um Daten zu erfassen und Abfragen für Ihre Datenbank auszuführen.

Azure IoT Hubs

Azure IoT Hub ist ein verwalteter Dienst, der in der Cloud gehostet wird und als zentraler Message Hub für die bidirektionale Kommunikation zwischen Ihrer IoT-Anwendung und den von ihr verwalteten Geräten fungiert. Sie können die kontinuierliche Aufnahme von vom Kunden verwalteten IoT Hubs konfigurieren, indem Sie die Event Hubs verwenden, die in Endpunkt von Geräte-zu-Cloud-Nachrichten integriert sind.

  • Funktionalität: Erfassung
  • Unterstützte Erfassungstypen: Batching, Streaming
  • Anwendungsfälle: IoT data
  • Dokumentation:IoT-Hub-Datenverbindung

Azure Stream Analytics

Azure Stream Analytics ist eine Echtzeit-Analyse- und komplexe Ereignisverarbeitungs-Engine, die für die gleichzeitige Verarbeitung großer Mengen schneller Streaming-Daten aus mehreren Quellen konzipiert ist.

Cribl Stream

Cribl stream ist eine Verarbeitungs-Engine, die Maschinenereignisdaten aus beliebigen Quellen sicher sammelt, verarbeitet und streamt. Sie ermöglicht das Parsen und Verarbeiten dieser Daten für ein beliebiges Ziel zur Analyse.

Fluent Bit

Fluent Bit ist ein Open Source-Agent, der Protokolle, Metriken und Ablaufverfolgungen aus verschiedenen Quellen sammelt. Es ermöglicht Ihnen, Ereignisdaten zu filtern, zu ändern und zu aggregieren, bevor Sie sie an den Speicher senden.

JDBC

Java Database Connectivity (JDBC) ist eine Java-API, die zum Herstellen einer Verbindung mit Datenbanken und zum Ausführen von Abfragen verwendet wird. Sie können JDBC verwenden, um eine Verbindung mit Azure Data Explorer herzustellen.

Logic-Anwendungen

Mit dem Microsoft Logic Apps-Connector können Sie Abfragen und Befehle automatisch als Teil einer geplanten oder ausgelösten Aufgabe ausführen.

Logstash

Das Logstash-Plugin ermöglicht die Verarbeitung von Ereignissen aus Logstash in eine Azure Data Explorer-Datenbank zur späteren Analyse.

Matlab

MATLAB ist eine Programmier- und Numerische Computerplattform, die verwendet wird, um Daten zu analysieren, Algorithmen zu entwickeln und Modelle zu erstellen. Sie können ein Autorisierungstoken in MATLAB zum Abfragen Ihrer Daten im Azure Data Explorer abrufen.

NLog

NLog ist eine flexible und kostenlose Protokollierungsplattform für verschiedene .NET-Plattformen wie z.B. .NET-Standard. Mit NLog können Sie in mehrere Ziele schreiben, z.B. in eine Datenbank, Datei oder Konsole. Mit NLog können Sie die Protokollierungskonfiguration spontan ändern. Die NLog-Senke ist ein Ziel für NLog, über das Sie Ihre Protokollnachrichten an Ihre Datenbank senden können. Mit dem Plug-In können Sie Ihre Protokolle effizient an Ihren Cluster weiterleiten.

ODBC

Die Open Database Connectivity (ODBC) ist eine weit verbreitete Anwendungsprogrammierschnittstelle (API) für Datenbankzugriff. Azure Data Explorer ist mit einer Teilmenge des SQL Server-Kommunikationsprotokolls (MS-TDS) kompatibel. Diese Kompatibilität ermöglicht die Verwendung des ODBC-Treibers für SQL Server mit Azure Data Explorer.

Open Telemetry

Der OpenTelemetry-Konnektor unterstützt das Erfassen von Daten von vielen Empfängern in Ihre Datenbank. Er fungiert als Brücke für die Erfassung der von Open Telemetry generierten Daten in Ihrer Datenbank durch Anpassen des Formats der exportierten Daten entsprechend Ihren Anforderungen.

Leistungsstarke Anwendungen

Power Apps ist eine Suite von Anwendungen, Diensten, Konnektoren und einer Datenplattform, die eine schnelle Anwendungsentwicklungsumgebung für die Erstellung benutzerdefinierter Anwendungen bietet, die eine Verbindung zu Ihren Geschäftsdaten herstellen. Der Power Apps-Connector ist nützlich, wenn Sie über eine große und wachsende Sammlung von Streamingdaten in Azure Data Explorer verfügen und eine funktionsreiche App mit wenig Code erstellen möchten, um diese Daten nutzen zu können.

Power Automate

Power Automate ist ein Orchestrierungsdienst, der zur Automatisierung von Geschäftsprozessen verwendet wird. Der Konnektor für Power Automate (zuvor Microsoft Flow) ermöglicht es Ihnen, Abläufe zu orchestrieren und zu planen, Benachrichtigungen und Warnungen als Teil eines geplanten oder ausgelösten Vorgangs zu koordinieren und zu planen.

Serilog

Serilog ist ein beliebtes Protokollierungsframework für .NET-Anwendungen. Mit Serilog können Entwickler steuern, welche Protokollanweisungen ausgehend vom Namen der Protokollierung, der Protokollierungsebene und dem Nachrichtenmuster mit beliebiger Granularität ausgegeben werden sollen. Die Serilog-Senke, auch als Appender bekannt, streamt Ihre Protokolldaten in Ihre Datenbank, wo Sie Ihre Protokolle in Echtzeit analysieren und visualisieren können.

Splunk

Splunk Unternehmen ist eine Softwareplattform, mit der Sie Daten aus vielen Quellen gleichzeitig erfassen können. The Azure Data Explorer Add-on sendet Daten von Splunk an eine Tabelle in Ihrem Cluster.

Splunk Universal Forwarder

Telegraf-

Telegraf ist ein leicht, minimaler Open Source-Speicherfußdruck-Agent zum Sammeln, Verarbeiten und Schreiben von Telemetriedaten, einschließlich Protokollen, Metriken und IoT-Daten. Telegraf unterstützt Hunderte von Eingabe- und Ausgabe-Plugins. Es wird von der Open Source Community häufig verwendet und gut unterstützt. Das Ausgabe-Plug-In dient als Konnektor von Telegraf und unterstützt die Erfassung von Daten von vielen Arten von Eingabe-Plug-Ins in Ihre Datenbank.