Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Es gibt viele Datenconnectors, Tools und Integrationen, die nahtlos mit der Plattform für Aufnahme, Orchestrierung, Ausgabe und Datenabfrage funktionieren. Dieses Dokument ist eine allgemeine Übersicht über die verfügbaren Connectors, Tools und Integrationen. Detaillierte Informationen werden für jeden Connector zusammen mit Links zu seiner vollständigen Dokumentation bereitgestellt.
Wenn Sie Übersichtsseiten für einen bestimmten Integrationstyp anzeigen möchten, wählen Sie eine der folgenden Schaltflächen aus.
Vergleichstabellen
In den folgenden Tabellen sind die Funktionen der einzelnen Elemente zusammengefasst. Wählen Sie die Registerkarte für Connectors oder Tools und Integrationen aus. Jeder Elementname ist mit seiner detaillierten Beschreibung verknüpft.
Die folgende Tabelle enthält eine Übersicht über die verfügbaren Konnektors und ihre Funktionen:
| Name | Erfassen | Exportieren | Orchestrieren | Abfrage |
|---|---|---|---|---|
| Apache Kafka | ✔️ | |||
| Apache Flink | ✔️ | |||
| Apache Log4J 2 | ✔️ | |||
| Apache Spark | ✔️ | ✔️ | ✔️ | |
| Apache Spark für Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
| Azure Cosmos DB | ✔️ | |||
| Azure Data Factory | ✔️ | ✔️ | ||
| Azure-Ereignisraster | ✔️ | |||
| Azure Event Hubs | ✔️ | |||
| Azure Functions | ✔️ | ✔️ | ||
| Azure IoT Hubs | ✔️ | |||
| Azure Stream Analytics | ✔️ | |||
| Cribl Stream | ✔️ | |||
| Fluent Bit | ✔️ | |||
| JDBC | ✔️ | |||
| Logik-Apps | ✔️ | ✔️ | ✔️ | |
| Logstash | ✔️ | |||
| Matlab | ✔️ | |||
| NLog | ✔️ | |||
| ODBC | ✔️ | |||
| Telemetrie öffnen | ✔️ | |||
| Power Apps | ✔️ | ✔️ | ||
| Power Automate | ✔️ | ✔️ | ✔️ | |
| Serilog | ✔️ | |||
| Splunk | ✔️ | |||
| Splunk Universal forwarder | ✔️ | |||
| Telegraf | ✔️ |
Detaillierte Beschreibungen
Im Folgenden finden Sie detaillierte Beschreibungen von Connectors und Tools und Integrationen. Wählen Sie die Registerkarte für Connectors oder Tools und Integrationen aus. Alle verfügbaren Elemente werden in den obigen Vergleichstabellen zusammengefasst.
Apache Kafka
Apache Kafka ist eine verteilte Streaming-Plattform zum Aufbau von Echtzeit-Streaming-Datenpipelines, die Daten zuverlässig zwischen Systemen oder Anwendungen übertragen. Kafka Connect ist ein Tool zum skalierbaren und zuverlässigen Streamen von Daten zwischen Apache Kafka und anderen Datensystemen. Die Kafka-Senke dient als Konnektor für Kafka und erfordert keine Verwendung von Code. Von Confluent als „Gold Certified“ ausgezeichnet – Qualität, Vollständigkeit der Features, Einhaltung von Standards und Leistung wurden umfassend geprüft und getestet.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Protokolle, Telemetrie, Zeitreihen
- Zugrunde liegendes SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/kafka-sink-azure-kusto/
- Dokumentation:Daten von Apache Kafka erfassen
- Community-Blog:Kafka-Erfassung im Azure Data Explorer
Apache Flink
Apache Flink ist ein Framework und eine verteilte Verarbeitungs-Engine für zustandsbehaftete Berechnungen über unbegrenzte und gebundene Datenströme. Der Konnektor implementiert Datensenken zum Verschieben von Daten zwischen Azure Data Explorer und Flink-Clustern. Mit Azure Data Explorer und Apache Flink können Sie schnelle und skalierbare Anwendungen für datengesteuerte Szenarien erstellen. Beispiele dafür sind maschinelles Lernen (Machine Learning, ML), Extrahieren, Transformieren und Laden (Extract-Transform-Load, ETL) und Protokollanalysen (Log Analytics).
- Funktionalität: Erfassung
- Unterstützte Erfassungsart: Streaming
- Anwendungsfälle: Telemetry
- Zugrunde liegendes SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/flink-connector-kusto/
- Dokumentation:Erfassen von Daten aus Apache Flink
Apache Log4J 2
Log4J ist ein beliebtes Logging-Framework für Java-Anwendungen, das von der Apache Foundation gepflegt wird. Mit Log4j können Entwickler steuern, welche Protokollanweisungen ausgehend vom Namen der Protokollierung, der Protokollierungsebene und dem Nachrichtenmuster mit beliebiger Granularität ausgegeben werden sollen. Mit der Apache Log4J 2-Senke können Sie Ihre Protokolldaten in Ihre Datenbank streamen und sie dort in Echtzeit analysieren und visualisieren.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Logs
- Zugrunde liegendes SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-log4j
- Dokumentation:Daten mit dem Apache Log4J 2 Connector erfassen
- Community Blog:Einstieg mit Apache Log4J und Azure Data Explorer
Apache Spark
Apache Spark ist eine einheitliche Analyse-Engine für die Verarbeitung großer Datenmengen. Der Spark-Konnektor ist ein Open-Source-Projekt, das auf jedem Spark-Cluster ausgeführt werden kann. Er implementiert Datenquellen und Datensenken zum Verschieben von Daten zu oder aus Spark-Clustern. Mit dem Apache Spark-Konnektor können Sie schnelle und skalierbare Anwendungen für datengesteuerte Szenarien erstellen. Beispiele dafür sind maschinelles Lernen (Machine Learning, ML), Extrahieren, Transformieren und Laden (Extract-Transform-Load, ETL) und Protokollanalysen (Log Analytics). Durch den Konnektor wird Ihre Datenbank ein gültiger Datenspeicher für Spark-Standardvorgänge für Quellen und Senken wie „read“, „write“ und „writeStream“.
- Funktionalität: Erfassen, Exportieren
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Telemetry
- Zugrunde liegendes SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-spark/
- Dokumentation:Apache Spark-Konnektor
- Community Blog:Datenvorverarbeitung für Azure Data Explorer für Azure Data Explorer mit Apache Spark
Apache Spark für Azure Synapse Analytics
Apache Spark ist ein paralleles Verarbeitungsframework, das In-Memory-Verarbeitung unterstützt, um die Leistung von Big-Data-Analyseanwendungen zu steigern. Apache Spark in Azure Synapse Analytics ist eine der Implementierungen von Apache Spark in der Cloud von Microsoft. Sie können von Synapse Studio aus mit Apache Spark für Azure Synapse Analytics auf eine Datenbank zugreifen.
- Funktionalität: Erfassen, Exportieren
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Telemetry
- Zugrunde liegendes SDK:Java
- Dokumentation:Verbindung mit einem Azure Synapse-Arbeitsbereich
Azure Cosmos DB (ein Microsoft-Datenbankdienst)
Die Azure Cosmos DB-Änderungsfeed-Datenverbindung ist eine Erfassungspipeline, die Ihrem Cosmos DB-Änderungsfeed lauscht und die Daten in Ihrer Datenbank erfasst.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Change feed
- Dokumentation:Aufnehmen von Daten aus Azure Cosmos DB (Vorschau)
Azure Data Factory
Azure Data Factory (ADF) ist ein Cloud-basierter Datenintegrationsdienst, mit dem Sie verschiedene Datenspeicher integrieren und Aktivitäten mit den Daten durchführen können.
- Funktionalität: Erfassen, Exportieren
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Datenorchestrierung
- Dokumentation:Kopieren von Daten in Ihre Datenbank mithilfe von Azure Data Factory
Azure-Ereignisraster
Die Event Grid-Erfassung ist eine Pipeline, die auf Azure Storage lauscht und Ihre Datenbank aktualisiert, um Informationen zu pullen, wenn abonnierte Ereignisse auftreten. Sie können eine kontinuierliche Erfassung aus dem Azure-Speicher (Blobspeicher und ADLSv2) mit einem Azure-Event-Grid-Abonnement für Blob-generierte oder von einem Blob umbenannte Benachrichtigungen konfigurieren und die Benachrichtigungen über Azure Event Hubs streamen.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Ereignisverarbeitung
- Dokumentation:Event Grid Datenverbindung
Azure Event Hubs
Azure Event Hubs ist eine Big-Data-Streaming-Plattform und ein Event-Ingestion-Service. Sie können die kontinuierliche Datenerfassung aus von vom Kunden verwalteten Event Hubs konfigurieren.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Dokumentation:Azure Event Hubs Datenverbindung
Azure-Funktionen
Azure Functions ermöglichen die Ausführung von serverlosem Code in der Cloud nach einem Zeitplan oder in Reaktion auf ein Ereignis. Mit Eingabe- und Ausgabebindungen für Azure Functions können Sie Ihre Datenbank in Ihre Workflows integrieren, um Daten zu erfassen und Abfragen für Ihre Datenbank auszuführen.
- Funktionalität: Erfassen, Exportieren
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Workflow-Integrationen
- Dokumentation:Integration von Azure Functions mithilfe von Input- und Output-Bindings (Vorschau)
- Community Blog:Azure Data Explorer (Kusto) Bindings für Azure Functions
Azure IoT Hubs
Azure IoT Hub ist ein verwalteter Dienst, der in der Cloud gehostet wird und als zentraler Message Hub für die bidirektionale Kommunikation zwischen Ihrer IoT-Anwendung und den von ihr verwalteten Geräten fungiert. Sie können die kontinuierliche Aufnahme von vom Kunden verwalteten IoT Hubs konfigurieren, indem Sie die Event Hubs verwenden, die in Endpunkt von Geräte-zu-Cloud-Nachrichten integriert sind.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: IoT data
- Dokumentation:IoT-Hub-Datenverbindung
Azure Stream Analytics
Azure Stream Analytics ist eine Echtzeit-Analyse- und komplexe Ereignisverarbeitungs-Engine, die für die gleichzeitige Verarbeitung großer Mengen schneller Streaming-Daten aus mehreren Quellen konzipiert ist.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Ereignisverarbeitung
- Dokumentation:Erfassen von Daten aus Azure Stream Analytics
Cribl Stream
Cribl stream ist eine Verarbeitungs-Engine, die Maschinenereignisdaten aus beliebigen Quellen sicher sammelt, verarbeitet und streamt. Sie ermöglicht das Parsen und Verarbeiten dieser Daten für ein beliebiges Ziel zur Analyse.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Verarbeitung von Maschinendaten, einschließlich Protokollen, Metriken und Instrumentierungsdaten
- Dokumentation:Erfassen von Daten aus Cribl Stream in Azure Data Explorer
Fluent Bit
Fluent Bit ist ein Open Source-Agent, der Protokolle, Metriken und Ablaufverfolgungen aus verschiedenen Quellen sammelt. Es ermöglicht Ihnen, Ereignisdaten zu filtern, zu ändern und zu aggregieren, bevor Sie sie an den Speicher senden.
- Funktionalität: Erfassung
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Protokolle, Metriken, Traces
- Repository:fluent-bit Kusto Output Plugin
- Dokumentation:Daten mit Fluent Bit in Azure Data Explorer erfassen
- Community Blog:Einstieg mit Fluent Bit und Azure Data Explorer
JDBC
Java Database Connectivity (JDBC) ist eine Java-API, die zum Herstellen einer Verbindung mit Datenbanken und zum Ausführen von Abfragen verwendet wird. Sie können JDBC verwenden, um eine Verbindung mit Azure Data Explorer herzustellen.
- Funktionalität: Query, Visualization
- Zugrunde liegendes SDK:Java
- Dokumentation:Verbindung zu Azure Data Explorer mit JDBC
Logic-Anwendungen
Mit dem Microsoft Logic Apps-Connector können Sie Abfragen und Befehle automatisch als Teil einer geplanten oder ausgelösten Aufgabe ausführen.
- Funktionalität: Erfassen, Exportieren
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Datenorchestrierung
- Dokumentation:Microsoft Logic Apps und Azure Data Explorer
Logstash
Das Logstash-Plugin ermöglicht die Verarbeitung von Ereignissen aus Logstash in eine Azure Data Explorer-Datenbank zur späteren Analyse.
- Funktionalität: Erfassung
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Logs
- Zugrunde liegendes SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/logstash-output-kusto/
- Dokumentation:Daten aus Logstash erfassen
- Community Blog:Anleitung zur Migration von Elasticsearch zu Azure Data Explorer
Matlab
MATLAB ist eine Programmier- und Numerische Computerplattform, die verwendet wird, um Daten zu analysieren, Algorithmen zu entwickeln und Modelle zu erstellen. Sie können ein Autorisierungstoken in MATLAB zum Abfragen Ihrer Daten im Azure Data Explorer abrufen.
- Funktionalität: Query
- Dokumentation:Datenabfrage mit MATLAB
NLog
NLog ist eine flexible und kostenlose Protokollierungsplattform für verschiedene .NET-Plattformen wie z.B. .NET-Standard. Mit NLog können Sie in mehrere Ziele schreiben, z.B. in eine Datenbank, Datei oder Konsole. Mit NLog können Sie die Protokollierungskonfiguration spontan ändern. Die NLog-Senke ist ein Ziel für NLog, über das Sie Ihre Protokollnachrichten an Ihre Datenbank senden können. Mit dem Plug-In können Sie Ihre Protokolle effizient an Ihren Cluster weiterleiten.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Telemetrie, Protokolle, Metriken
- Zugrundeliegende SDK:.NET
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-nlog-sink
- Dokumentation:Daten mit der NLog-Senke erfassen
- Community Blog:Starten mit NLog sink und Azure Data Explorer
ODBC
Die Open Database Connectivity (ODBC) ist eine weit verbreitete Anwendungsprogrammierschnittstelle (API) für Datenbankzugriff. Azure Data Explorer ist mit einer Teilmenge des SQL Server-Kommunikationsprotokolls (MS-TDS) kompatibel. Diese Kompatibilität ermöglicht die Verwendung des ODBC-Treibers für SQL Server mit Azure Data Explorer.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Telemetrie, Protokolle, Metriken
- Dokumentation:Verbindung zu Azure Data Explorer mit ODBC
Open Telemetry
Der OpenTelemetry-Konnektor unterstützt das Erfassen von Daten von vielen Empfängern in Ihre Datenbank. Er fungiert als Brücke für die Erfassung der von Open Telemetry generierten Daten in Ihrer Datenbank durch Anpassen des Formats der exportierten Daten entsprechend Ihren Anforderungen.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Traces, Metrics, Logs
- Zugrunde liegende SDK:Go
- Repository: Open Telemetry - https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Dokumentation:Daten von OpenTelemetry erfassen
- Community Blog:Einstieg mit Open Telemetry und Azure Data Explorer
Leistungsstarke Anwendungen
Power Apps ist eine Suite von Anwendungen, Diensten, Konnektoren und einer Datenplattform, die eine schnelle Anwendungsentwicklungsumgebung für die Erstellung benutzerdefinierter Anwendungen bietet, die eine Verbindung zu Ihren Geschäftsdaten herstellen. Der Power Apps-Connector ist nützlich, wenn Sie über eine große und wachsende Sammlung von Streamingdaten in Azure Data Explorer verfügen und eine funktionsreiche App mit wenig Code erstellen möchten, um diese Daten nutzen zu können.
- Funktionalität: Abfrage, Erfassung, Export
- Unterstützte Erfassungsart: Batching
- Dokumentation:Verwenden Sie Power Apps, um Daten im Azure Data Explorer abzufragen
Power Automate
Power Automate ist ein Orchestrierungsdienst, der zur Automatisierung von Geschäftsprozessen verwendet wird. Der Konnektor für Power Automate (zuvor Microsoft Flow) ermöglicht es Ihnen, Abläufe zu orchestrieren und zu planen, Benachrichtigungen und Warnungen als Teil eines geplanten oder ausgelösten Vorgangs zu koordinieren und zu planen.
- Funktionalität: Erfassen, Exportieren
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Datenorchestrierung
- Dokumentation:Microsoft Power Automate-Anschluss
Serilog
Serilog ist ein beliebtes Protokollierungsframework für .NET-Anwendungen. Mit Serilog können Entwickler steuern, welche Protokollanweisungen ausgehend vom Namen der Protokollierung, der Protokollierungsebene und dem Nachrichtenmuster mit beliebiger Granularität ausgegeben werden sollen. Die Serilog-Senke, auch als Appender bekannt, streamt Ihre Protokolldaten in Ihre Datenbank, wo Sie Ihre Protokolle in Echtzeit analysieren und visualisieren können.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Logs
- Zugrundeliegende SDK:.NET
- Repository: Microsoft Azure - https://github.com/Azure/serilog-sinks-azuredataexplorer
- Dokumentation:Daten mit der Serilog-Senke erfassen
- Community Blog:Einstieg mit Serilog Sink und Azure Data Explorer
Splunk
Splunk Unternehmen ist eine Softwareplattform, mit der Sie Daten aus vielen Quellen gleichzeitig erfassen können. The Azure Data Explorer Add-on sendet Daten von Splunk an eine Tabelle in Ihrem Cluster.
- Funktionalität: Erfassung
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Logs
- Zugrunde liegende SDK:Python
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Dokumentation:Daten von Splunk erfassen
- Splunk Base:Microsoft Azure Data Explorer Add-on für Splunk
- Community Blog:Starten mit dem Microsoft Azure Data Explorer Add-on für Splunk
Splunk Universal Forwarder
- Funktionalität: Erfassung
- Unterstützte Erfassungsart: Batching
- Anwendungsfälle: Logs
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk
- Dokumentation:Daten von Splunk Universal forwarder in Azure Data Explorer erfassen
- Community Blog:Daten mit Splunk Universal forwarder in Azure Data Explorer erfassen
Telegraf-
Telegraf ist ein leicht, minimaler Open Source-Speicherfußdruck-Agent zum Sammeln, Verarbeiten und Schreiben von Telemetriedaten, einschließlich Protokollen, Metriken und IoT-Daten. Telegraf unterstützt Hunderte von Eingabe- und Ausgabe-Plugins. Es wird von der Open Source Community häufig verwendet und gut unterstützt. Das Ausgabe-Plug-In dient als Konnektor von Telegraf und unterstützt die Erfassung von Daten von vielen Arten von Eingabe-Plug-Ins in Ihre Datenbank.
- Funktionalität: Erfassung
- Unterstützte Erfassungstypen: Batching, Streaming
- Anwendungsfälle: Telemetrie, Protokolle, Metriken
- Zugrunde liegende SDK:Go
- Repository: InfluxData - https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Dokumentation:Daten von Telegraf erfassen
- Community Blog:Neues Azure Data Explorer Ausgabe-Plugin für Telegraf ermöglicht SQL-Überwachung in großer Staffelung