什么是 Fabric RTI MCP 服务器(预览版) ?

将模型上下文协议(MCP)与实时情报(RTI)集成,可以实时获取 AI 驱动的见解和行动。 MCP 服务器通过 MCP 接口提供工具,允许 AI 代理或 AI 应用程序与 Fabric RTI 或 Azure 数据资源管理器(ADX)进行交互,以便可以轻松查询和分析数据。

MCP 对 RTI 和 ADX 的支持是适用于 Microsoft Fabric Real-Time Intelligence(RTI)的完整开源 MCP 服务器 实现。

重要

此功能目前为预览版

模型上下文协议(MCP)简介

模型上下文协议 (MCP)是一种协议,允许 AI 模型(如 Azure OpenAI 模型)与外部工具和资源交互。 MCP 使代理能够更轻松地查找、连接和使用企业数据。

情境

使用 RTI MCP 服务器最常见的场景是通过现有的 AI 客户端(如 Cline、Claude 和 GitHub Copilot)进行连接。 然后,客户端可以使用所有可用的工具来使用自然语言访问 RTI 或 ADX 资源并与之交互。 例如,可以将 GitHub Copilot 代理模式与 RTI MCP 服务器配合使用来列出 KQL 数据库或 ADX 群集,或者在 RTI Eventhouses 上运行自然语言查询。

建筑

RTI MCP 服务器是系统的核心,充当 AI 代理和数据源之间的桥梁。 代理将请求发送到 MCP 服务器,将请求转换为 Eventhouse 查询。

显示 MCP 体系结构的一个关系图。

通过此体系结构,可以构建模块化、可缩放且安全的智能应用程序,以响应实时信号。 MCP 使用客户端-服务器体系结构,因此 AI 应用程序可以有效地与外部工具进行交互。 该体系结构包括以下组件:

  • MCP 主机:AI 模型(如 GPT-4、Claude 或 Gemini)运行的环境。
  • MCP 客户端:中介服务将 AI 模型的请求转发到 MCP 服务器,如 GitHub Copilot、Cline 或 Claude Desktop。
  • MCP 服务器:轻型应用程序通过自然语言 API、数据库公开特定功能。 例如,Fabric RTI MCP 服务器可以执行 KQL 查询,以便从 KQL 数据库进行实时数据检索。

主要功能

Real-Time 数据访问:以秒为单位从 KQL 数据库检索数据。

自然语言界面:以纯英语或其他语言提问,系统将其转换为优化的查询(NL2KQL)。

架构发现:发现架构和元数据,以便动态学习数据结构。

即插即用集成:由于标准化 API 和发现机制,可将 GitHub Copilot、Claude 和 Cline 等 MCP 客户端连接到 RTI,仅需最少的设置。

本地语言推理:使用首选语言处理数据。

支持的 RTI 组件

Eventhouse - 对 Eventhouse 后端中的 KQL 数据库运行 KQL 查询。 此统一接口允许 AI 代理查询、推理和处理实时数据。

注释

还可以使用 Fabric RTI MCP 服务器针对 Azure 数据资源管理器 后端中的群集运行 KQL 查询。