Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Durch die Integration von Model Context Protocol (MCP) mit Real-Time Intelligence (RTI) können Sie KI-gesteuerte Einblicke und Aktionen in Echtzeit abrufen. Mit dem MCP-Server können KI-Agents oder KI-Anwendungen mit Fabric RTI oder Azure Data Explorer (ADX) interagieren, indem Sie Tools über die MCP-Schnittstelle bereitstellen, sodass Sie Daten problemlos abfragen und analysieren können.
MCP-Unterstützung für RTI und ADX ist eine vollständige Open-Source-MCP-Serverimplementierung für Microsoft Fabric Real-Time Intelligence (RTI).
Von Bedeutung
Dieses Feature befindet sich in der Vorschauphase.
Einführung in das Model Context Protocol (MCP)
Model Context Protocol (MCP) ist ein Protokoll, mit dem KI-Modelle wie Azure OpenAI-Modelle mit externen Tools und Ressourcen interagieren können. MCP erleichtert Agents das Auffinden, Herstellen einer Verbindung mit und die Verwendung von Unternehmensdaten.
Szenarien
Das am häufigsten verwendete Szenario für die Verwendung des RTI MCP-Servers besteht darin, eine Verbindung mit dem Server über einen vorhandenen KI-Client herzustellen, z. B. Cline, Claude und GitHub Copilot. Der Client kann dann alle verfügbaren Tools verwenden, um mithilfe natürlicher Sprache auf RTI- oder ADX-Ressourcen zuzugreifen und mit diesen zu interagieren. Sie können z. B. den GitHub Copilot-Agentmodus mit dem RTI MCP-Server verwenden, um KQL-Datenbanken oder ADX-Cluster auflisten oder Abfragen mit natürlicher Sprache auf RTI Eventhouses auszuführen.
Architektur
Der RTI MCP Server befindet sich im Kern des Systems und fungiert als Brücke zwischen KI-Agents und Datenquellen. Agents senden Anforderungen an den MCP-Server, der sie in Eventhouse-Abfragen übersetzt.
Mit dieser Architektur können Sie modulare, skalierbare und sichere intelligente Anwendungen erstellen, die auf Echtzeitsignale reagieren. MCP verwendet eine Clientserverarchitektur, sodass KI-Anwendungen effizient mit externen Tools interagieren können. Die Architektur umfasst die folgenden Komponenten:
- MCP-Host: Die Umgebung, in der das KI-Modell (z. B. GPT-4, Claude oder Gemini) ausgeführt wird.
- MCP-Client: Ein Zwischendienst leitet die Anforderungen des KI-Modells an MCP-Server weiter, z. B. GitHub Copilot, Cline oder Claude Desktop.
- MCP-Server: Einfache Anwendungen, die bestimmte Funktionen durch APIs in natürlicher Sprache, Datenbanken verfügbar geben. Beispielsweise kann der Fabric RTI MCP-Server KQL-Abfragen für den Echtzeitdatenabruf aus KQL-Datenbanken ausführen.
Wichtigste Funktionen
Real-Time Datenzugriff: Abrufen von Daten aus KQL-Datenbanken in Sekunden.
Schnittstellen für natürliche Sprachen: Stellen Sie Fragen in einfachem Englisch oder anderen Sprachen, und das System wandelt sie in optimierte Abfragen (NL2KQL) um.
Schemaermittlung: Entdecken Sie Schema und Metadaten, damit Sie Datenstrukturen dynamisch erlernen können.
Plug-and-Play-Integration: Verbinden Sie MCP-Clients wie GitHub Copilot, Claude und Cline mit RTI mit minimalem Setup aufgrund standardisierter APIs und Ermittlungsmechanismen.
Lokale Sprachferenz: Arbeiten Sie mit Ihren Daten in Ihrer bevorzugten Sprache.
Unterstützte RTI-Komponenten
Eventhouse – Führen Sie KQL-Abfragen für die KQL-Datenbanken in Ihrem Eventhouse-Back-End aus. Diese einheitliche Schnittstelle ermöglicht KI-Agents, Daten in Echtzeit zu abfragen, zu gründen und auf sie zu reagieren.
Hinweis
Sie können auch den Fabric RTI MCP Server verwenden, um KQL-Abfragen für die Cluster in Ihrem Azure Data Explorer-Back-End auszuführen.