将模型上下文协议(MCP)与实时情报(RTI)集成,可以实时获取 AI 驱动的见解和行动。 MCP 服务器通过 MCP 接口提供工具,允许 AI 代理或 AI 应用程序与 Fabric RTI 或 Azure 数据资源管理器(ADX)进行交互,以便可以轻松查询和分析数据。
MCP 对 RTI 和 ADX 的支持是适用于 Microsoft Fabric Real-Time Intelligence(RTI)的完整开源 MCP 服务器 实现。
重要
此功能目前为预览版。
模型上下文协议(MCP)简介
模型上下文协议 (MCP)是一种协议,允许 AI 模型(如 Azure OpenAI 模型)与外部工具和资源交互。 MCP 使代理能够更轻松地查找、连接和使用企业数据。
情境
使用 RTI MCP 服务器最常见的场景是通过现有的 AI 客户端(如 Cline、Claude 和 GitHub Copilot)进行连接。 然后,客户端可以使用所有可用的工具来使用自然语言访问 RTI 或 ADX 资源并与之交互。 例如,可以将 GitHub Copilot 代理模式与 RTI MCP 服务器配合使用来列出 KQL 数据库或 ADX 群集,或者在 RTI Eventhouses 上运行自然语言查询。
建筑
RTI MCP 服务器是系统的核心,充当 AI 代理和数据源之间的桥梁。 代理将请求发送到 MCP 服务器,将请求转换为 Eventhouse 查询。
通过此体系结构,可以构建模块化、可缩放且安全的智能应用程序,以响应实时信号。 MCP 使用客户端-服务器体系结构,因此 AI 应用程序可以有效地与外部工具进行交互。 该体系结构包括以下组件:
- MCP 主机:AI 模型(如 GPT-4、Claude 或 Gemini)运行的环境。
- MCP 客户端:中介服务将 AI 模型的请求转发到 MCP 服务器,如 GitHub Copilot、Cline 或 Claude Desktop。
- MCP 服务器:轻型应用程序通过自然语言 API、数据库公开特定功能。 例如,Fabric RTI MCP 服务器可以执行 KQL 查询,以便从 KQL 数据库进行实时数据检索。
主要功能
Real-Time 数据访问:以秒为单位从 KQL 数据库检索数据。
自然语言界面:以纯英语或其他语言提问,系统将其转换为优化的查询(NL2KQL)。
架构发现:发现架构和元数据,以便动态学习数据结构。
即插即用集成:由于标准化 API 和发现机制,可将 GitHub Copilot、Claude 和 Cline 等 MCP 客户端连接到 RTI,仅需最少的设置。
本地语言推理:使用首选语言处理数据。
支持的 RTI 组件
Eventhouse - 对 Eventhouse 后端中的 KQL 数据库运行 KQL 查询。 此统一接口允许 AI 代理查询、推理和处理实时数据。
注释
还可以使用 Fabric RTI MCP 服务器针对 Azure 数据资源管理器 后端中的群集运行 KQL 查询。