Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
La integración del Model Context Protocol (MCP) con Real-Time Intelligence (RTI) le permite obtener perspectivas y acciones impulsadas por IA en tiempo real. El servidor MCP permite a los agentes de inteligencia artificial o a las aplicaciones de IA interactuar con Fabric RTI o Azure Data Explorer (ADX) proporcionando herramientas a través de la interfaz MCP, para que pueda consultar y analizar datos fácilmente.
La compatibilidad de MCP con RTI y ADX es una implementación completa del servidor MCP de código abierto para Microsoft Fabric Real-Time Intelligence (RTI).
Importante
Esta característica se encuentra en versión preliminar.
Introducción al protocolo de contexto de modelo (MCP)
El Protocolo de contexto de modelo (MCP) es un protocolo que permite a los modelos de IA, como los modelos de Azure OpenAI, interactuar con herramientas y recursos externos. MCP facilita la búsqueda, conexión y uso de datos empresariales a los agentes.
Escenarios
El escenario más común para usar el servidor MCP de RTI es conectarse a él desde un cliente de IA existente, como Cline, Claude y GitHub copilot. Después, el cliente puede usar todas las herramientas disponibles para acceder a los recursos de RTI o ADX e interactuar con ellos mediante lenguaje natural. Por ejemplo, podría usar el modo de agente de Copilot de GitHub con el servidor MCP de RTI para enumerar bases de datos KQL o clústeres de ADX o ejecutar consultas de lenguaje natural en eventhouses de RTI.
Arquitectura
El servidor MCP de RTI está en el núcleo del sistema y actúa como un puente entre los agentes de inteligencia artificial y los orígenes de datos. Los agentes envían solicitudes al servidor MCP, lo que los traduce en consultas de Eventhouse.
Esta arquitectura le permite crear aplicaciones inteligentes modulares, escalables y seguras que responden a señales en tiempo real. MCP usa una arquitectura de servidor cliente, por lo que las aplicaciones de inteligencia artificial pueden interactuar con herramientas externas de forma eficaz. La arquitectura incluye los siguientes componentes:
- Host de MCP: el entorno en el que se ejecuta el modelo de IA (como GPT-4, Claude o Gemini).
- Cliente MCP: un servicio intermediario reenvía las solicitudes del modelo de IA a los servidores MCP, como GitHub Copilot, Cline o Claude Desktop.
- SERVIDOR MCP: aplicaciones ligeras que exponen funcionalidades específicas por las API de lenguaje natural, las bases de datos. Por ejemplo, el servidor MCP de Fabric RTI puede ejecutar consultas KQL para la recuperación de datos en tiempo real de bases de datos KQL.
Características clave
Acceso a datos en tiempo real: Recupere datos de bases de datos KQL en segundos.
Interfaces de lenguaje natural: formula preguntas en inglés sin formato u otros idiomas, y el sistema los convierte en consultas optimizadas (NL2KQL).
Detección de esquemas: descubra el esquema y los metadatos, por lo que puede aprender estructuras de datos dinámicamente.
Integración de plug-and-play: Conecte clientes MCP como GitHub Copilot, Claude y Cline a RTI con una configuración mínima gracias a API estandarizadas y mecanismos de descubrimiento.
Inferencia de idioma local: trabaje con los datos en su idioma preferido.
Componentes de RTI compatibles
Eventhouse : ejecute consultas KQL en las bases de datos KQL del back-end de Eventhouse . Esta interfaz unificada permite a los agentes de IA consultar, razonar y actuar en datos en tiempo real.
Nota:
También puede usar el servidor MCP de Fabric RTI para ejecutar consultas KQL en los clústeres del back-end de Azure Data Explorer .