Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
A integração do PROTOCOLO MCP (Model Context Protocol) ao RTI (Real-Time Intelligence) permite obter insights e ações orientados por IA em tempo real. O servidor MCP permite que agentes de IA ou aplicativos de IA interajam com o Fabric RTI ou o AdX (Azure Data Explorer) fornecendo ferramentas por meio da interface MCP, para que você possa consultar e analisar dados facilmente.
O suporte do MCP para RTI e ADX é uma implementação completa do servidor MCP de software livre para o Microsoft Fabric Real-Time Intelligence (RTI).
Importante
Esse recurso está na versão prévia.
Introdução ao PROTOCOLO MCP (Model Context Protocol)
O PROTOCOLO MCP (Model Context Protocol) é um protocolo que permite que modelos de IA, como modelos do Azure OpenAI, interajam com ferramentas e recursos externos. O MCP facilita a localização, a conexão e o uso de dados corporativos pelos agentes.
Cenários
O cenário mais comum para usar o SERVIDOR RTI MCP é conectar-se a ele a partir de um cliente de IA existente, como Cline, Claude e GitHub copilot. Em seguida, o cliente pode usar todas as ferramentas disponíveis para acessar e interagir com recursos RTI ou ADX usando linguagem natural. Por exemplo, você pode usar o modo de agente do GitHub Copilot com o SERVIDOR RTI MCP para listar bancos de dados KQL ou clusters do ADX ou executar consultas de linguagem natural em Eventhouses RTI.
Arquitetura
O servidor RTI MCP está no núcleo do sistema e atua como uma ponte entre agentes de IA e fontes de dados. Os agentes enviam solicitações para o servidor MCP, o que as converte em consultas do Eventhouse.
Essa arquitetura permite criar aplicativos inteligentes modulares, escalonáveis e seguros que respondem a sinais em tempo real. O MCP usa uma arquitetura cliente-servidor para que os aplicativos de IA possam interagir com ferramentas externas com eficiência. A arquitetura inclui os seguintes componentes:
- Host MCP: o ambiente em que o modelo de IA (como GPT-4, Claude ou Gemini) é executado.
- Cliente MCP: um serviço intermediário encaminha as solicitações do modelo de IA para servidores MCP, como GitHub Copilot, Cline ou Claude Desktop.
- Servidor MCP: aplicativos leves expondo funcionalidades específicas por APIs de linguagem natural, bancos de dados. Por exemplo, o servidor MCP do Fabric RTI pode executar consultas KQL para recuperação de dados em tempo real de bancos de dados KQL.
Características principais
Acesso a Dados em Tempo Real: recuperar dados de bancos de dados KQL em segundos.
Interfaces de idioma natural: faça perguntas em inglês simples ou em outros idiomas, e o sistema as transforma em consultas otimizadas (NL2KQL).
Descoberta de esquema: descubra o esquema e os metadados, para que você possa aprender estruturas de dados dinamicamente.
Integração plug-and-play: conecte clientes MCP como GitHub Copilot, Claude e Cline ao RTI com configuração mínima devido a APIs padronizadas e mecanismos de descoberta.
Inferência de idioma local: trabalhe com seus dados em seu idioma preferido.
Componentes RTI com suporte
Eventhouse – Execute consultas KQL nos bancos de dados KQL no backend Eventhouse. Essa interface unificada permite que os agentes de IA consultem, raciocinam e atuem em dados em tempo real.
Observação
Você também pode usar o Servidor MCP do Fabric RTI para executar consultas KQL nos clusters em seu back-end do Azure Data Explorer .