Compartilhar via


O que é o Servidor MCP do Fabric RTI (versão prévia)?

A integração do PROTOCOLO MCP (Model Context Protocol) ao RTI (Real-Time Intelligence) permite obter insights e ações orientados por IA em tempo real. O servidor MCP permite que agentes de IA ou aplicativos de IA interajam com o Fabric RTI ou o AdX (Azure Data Explorer) fornecendo ferramentas por meio da interface MCP, para que você possa consultar e analisar dados facilmente.

O suporte do MCP para RTI e ADX é uma implementação completa do servidor MCP de software livre para o Microsoft Fabric Real-Time Intelligence (RTI).

Importante

Esse recurso está na versão prévia.

Introdução ao PROTOCOLO MCP (Model Context Protocol)

O PROTOCOLO MCP (Model Context Protocol) é um protocolo que permite que modelos de IA, como modelos do Azure OpenAI, interajam com ferramentas e recursos externos. O MCP facilita a localização, a conexão e o uso de dados corporativos pelos agentes.

Cenários

O cenário mais comum para usar o SERVIDOR RTI MCP é conectar-se a ele a partir de um cliente de IA existente, como Cline, Claude e GitHub copilot. Em seguida, o cliente pode usar todas as ferramentas disponíveis para acessar e interagir com recursos RTI ou ADX usando linguagem natural. Por exemplo, você pode usar o modo de agente do GitHub Copilot com o SERVIDOR RTI MCP para listar bancos de dados KQL ou clusters do ADX ou executar consultas de linguagem natural em Eventhouses RTI.

Arquitetura

O servidor RTI MCP está no núcleo do sistema e atua como uma ponte entre agentes de IA e fontes de dados. Os agentes enviam solicitações para o servidor MCP, o que as converte em consultas do Eventhouse.

Diagrama que mostra a arquitetura do MCP.

Essa arquitetura permite criar aplicativos inteligentes modulares, escalonáveis e seguros que respondem a sinais em tempo real. O MCP usa uma arquitetura cliente-servidor para que os aplicativos de IA possam interagir com ferramentas externas com eficiência. A arquitetura inclui os seguintes componentes:

  • Host MCP: o ambiente em que o modelo de IA (como GPT-4, Claude ou Gemini) é executado.
  • Cliente MCP: um serviço intermediário encaminha as solicitações do modelo de IA para servidores MCP, como GitHub Copilot, Cline ou Claude Desktop.
  • Servidor MCP: aplicativos leves expondo funcionalidades específicas por APIs de linguagem natural, bancos de dados. Por exemplo, o servidor MCP do Fabric RTI pode executar consultas KQL para recuperação de dados em tempo real de bancos de dados KQL.

Características principais

Acesso a Dados em Tempo Real: recuperar dados de bancos de dados KQL em segundos.

Interfaces de idioma natural: faça perguntas em inglês simples ou em outros idiomas, e o sistema as transforma em consultas otimizadas (NL2KQL).

Descoberta de esquema: descubra o esquema e os metadados, para que você possa aprender estruturas de dados dinamicamente.

Integração plug-and-play: conecte clientes MCP como GitHub Copilot, Claude e Cline ao RTI com configuração mínima devido a APIs padronizadas e mecanismos de descoberta.

Inferência de idioma local: trabalhe com seus dados em seu idioma preferido.

Componentes RTI com suporte

Eventhouse – Execute consultas KQL nos bancos de dados KQL no backend Eventhouse. Essa interface unificada permite que os agentes de IA consultem, raciocinam e atuem em dados em tempo real.

Observação

Você também pode usar o Servidor MCP do Fabric RTI para executar consultas KQL nos clusters em seu back-end do Azure Data Explorer .