Partilhar via


O que é o Fabric RTI MCP Server (visualização)?

A integração do MCP (Model Context Protocol) com o Real-Time Intelligence (RTI) permite obter insights e ações orientados por IA em tempo real. O servidor MCP permite que agentes de IA ou aplicativos de IA interajam com o Fabric RTI ou o Azure Data Explorer (ADX) fornecendo ferramentas por meio da interface MCP, para que você possa consultar e analisar dados facilmente.

O suporte MCP para RTI e ADX é uma implementação completa de servidor MCP de código aberto para Microsoft Fabric Real-Time Intelligence (RTI).

Importante

Este recurso está em pré-visualização.

Introdução ao Protocolo de Contexto Modelo (MCP)

O MCP (Model Context Protocol ) é um protocolo que permite que modelos de IA, como modelos do Azure OpenAI, interajam com ferramentas e recursos externos. O MCP torna mais fácil para os agentes localizar, conectar-se e usar dados corporativos.

Cenários

O cenário mais comum para usar o RTI MCP Server é conectar-se a ele a partir de um cliente de IA existente, como Cline, Claude e GitHub Copilot. O cliente pode então usar todas as ferramentas disponíveis para acessar e interagir com recursos RTI ou ADX usando linguagem natural. Por exemplo, você pode usar o modo de agente Copilot do GitHub com o Servidor MCP RTI para listar bancos de dados KQL ou clusters ADX ou executar consultas de linguagem natural em Eventhouses RTI.

Arquitetura

O RTI MCP Server está no centro do sistema e atua como uma ponte entre agentes de IA e fontes de dados. Os agentes enviam solicitações para o servidor MCP, que as traduz em consultas do Eventhouse.

Diagrama que mostra a arquitetura MCP.

Essa arquitetura permite criar aplicativos inteligentes modulares, escaláveis e seguros que respondem a sinais em tempo real. O MCP usa uma arquitetura cliente-servidor, para que os aplicativos de IA possam interagir com ferramentas externas de forma eficiente. A arquitetura inclui os seguintes componentes:

  • MCP Host: O ambiente onde o modelo de IA (como GPT-4, Claude ou Gemini) é executado.
  • Cliente MCP: um serviço intermediário encaminha as solicitações do modelo de IA para servidores MCP, como GitHub Copilot, Cline ou Claude Desktop.
  • MCP Server: Aplicativos leves que expõem recursos específicos por APIs de linguagem natural, bancos de dados. Por exemplo, o servidor MCP Fabric RTI pode executar consultas KQL para recuperação de dados em tempo real de bancos de dados KQL.

Principais características

Acesso a Dados em Tempo Real: recupere dados nos bancos de dados KQL em segundos.

Interfaces de Linguagem Natural: Faça perguntas em inglês simples ou em outros idiomas, e o sistema as transforma em consultas otimizadas (NL2KQL).

Descoberta de esquema: descubra esquemas e metadados para que você possa aprender estruturas de dados dinamicamente.

Integração plug-and-play: conecte clientes MCP como GitHub Copilot, Claude e Cline ao RTI com configuração mínima devido a APIs padronizadas e mecanismos de descoberta.

Inferência no idioma local: trabalhe com seus dados no idioma de sua preferência.

Componentes RTI suportados

Eventhouse - Execute consultas KQL nos bancos de dados KQL no back-end do Eventhouse . Essa interface unificada permite que os agentes de IA consultem, raciocinem e ajam em dados em tempo real.

Observação

Você também pode usar o Fabric RTI MCP Server para executar consultas KQL nos clusters no back-end do Azure Data Explorer .