Partager via


Qu’est-ce que le serveur MCP Fabric RTI (préversion) ?

L’intégration du protocole MCP (Model Context Protocol) à Real-Time Intelligence (RTI) vous permet d’obtenir des insights et des actions pilotés par l’IA en temps réel. Le serveur MCP permet aux agents IA ou aux applications IA d’interagir avec Fabric RTI ou Azure Data Explorer (ADX) en fournissant des outils via l’interface MCP, afin de pouvoir interroger et analyser facilement les données.

La prise en charge de MCP pour RTI et ADX est une implémentation complète et open source du serveur MCP pour Microsoft Fabric Real-Time Intelligence (RTI).

Important

Cette fonctionnalité est en version préliminaire.

Introduction au protocole MCP (Model Context Protocol)

Le protocole MCP (Model Context Protocol) est un protocole qui permet aux modèles IA, comme les modèles Azure OpenAI, d’interagir avec des outils et des ressources externes. MCP facilite la recherche, la connexion et l’utilisation des données d’entreprise pour les agents.

Scénarios

Le scénario le plus courant d’utilisation du serveur RTI MCP consiste à se connecter à celui-ci à partir d’un client IA existant, tel que Cline, Claude et GitHub copilot. Le client peut ensuite utiliser tous les outils disponibles pour accéder aux ressources RTI ou ADX et interagir avec celles-ci à l’aide du langage naturel. Par exemple, vous pouvez utiliser le mode d’agent Copilot GitHub avec le serveur MCP RTI pour répertorier les bases de données KQL ou les clusters ADX ou exécuter des requêtes en langage naturel sur RTI Eventhouses.

Architecture

Le serveur MCP RTI est au cœur du système et agit comme un pont entre les agents IA et les sources de données. Les agents envoient des requêtes au serveur MCP, ce qui les traduit en requêtes Eventhouse.

Diagramme montrant l’architecture MCP.

Cette architecture vous permet de créer des applications intelligentes modulaires, évolutives et sécurisées qui répondent aux signaux en temps réel. MCP utilise une architecture de serveur client, afin que les applications IA puissent interagir efficacement avec des outils externes. L’architecture comprend les composants suivants :

  • Hôte MCP : environnement dans lequel le modèle IA (tel que GPT-4, Claude ou Gemini) s’exécute.
  • Client MCP : un service intermédiaire transfère les demandes du modèle IA aux serveurs MCP, tels que GitHub Copilot, Cline ou Claude Desktop.
  • MCP Server : applications légères exposant des fonctionnalités spécifiques par les API de langage naturel, les bases de données. Par exemple, le serveur MCP Fabric RTI peut exécuter des requêtes KQL pour la récupération de données en temps réel à partir de bases de données KQL.

Fonctionnalités clés

Accès aux données en temps réel : récupérer des données à partir de bases de données KQL en quelques secondes.

Interfaces en langage naturel : posez des questions en anglais brut ou d’autres langues, et le système les transforme en requêtes optimisées (NL2KQL).

Découverte de schéma : découvrir le schéma et les métadonnées, afin de pouvoir apprendre dynamiquement les structures de données.

Intégration plug-and-Play : connectez des clients MCP tels que GitHub Copilot, Claude et Cline à RTI avec une configuration minimale en raison des API standardisées et des mécanismes de découverte.

Inférence de langue locale : utilisez vos données dans votre langue préférée.

Composants RTI pris en charge

Eventhouse : exécutez des requêtes KQL sur les bases de données KQL dans votre serveur principal Eventhouse . Cette interface unifiée permet aux agents IA d’interroger, de raison et d’agir sur des données en temps réel.

Remarque

Vous pouvez également utiliser le serveur RTI MCP Fabric pour exécuter des requêtes KQL sur les clusters dans votre back-end Azure Data Explorer .