Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
A integração do MCP (Model Context Protocol) com o Real-Time Intelligence (RTI) permite obter insights e ações orientados por IA em tempo real. O servidor MCP permite que agentes de IA ou aplicativos de IA interajam com o Fabric RTI ou o Azure Data Explorer (ADX) fornecendo ferramentas por meio da interface MCP, para que você possa consultar e analisar dados facilmente.
O suporte MCP para RTI e ADX é uma implementação completa de servidor MCP de código aberto para Microsoft Fabric Real-Time Intelligence (RTI).
Importante
Este recurso está em pré-visualização.
Introdução ao Protocolo de Contexto Modelo (MCP)
O MCP (Model Context Protocol ) é um protocolo que permite que modelos de IA, como modelos do Azure OpenAI, interajam com ferramentas e recursos externos. O MCP torna mais fácil para os agentes localizar, conectar-se e usar dados corporativos.
Cenários
O cenário mais comum para usar o RTI MCP Server é conectar-se a ele a partir de um cliente de IA existente, como Cline, Claude e GitHub Copilot. O cliente pode então usar todas as ferramentas disponíveis para acessar e interagir com recursos RTI ou ADX usando linguagem natural. Por exemplo, você pode usar o modo de agente Copilot do GitHub com o Servidor MCP RTI para listar bancos de dados KQL ou clusters ADX ou executar consultas de linguagem natural em Eventhouses RTI.
Arquitetura
O RTI MCP Server está no centro do sistema e atua como uma ponte entre agentes de IA e fontes de dados. Os agentes enviam solicitações para o servidor MCP, que as traduz em consultas do Eventhouse.
Essa arquitetura permite criar aplicativos inteligentes modulares, escaláveis e seguros que respondem a sinais em tempo real. O MCP usa uma arquitetura cliente-servidor, para que os aplicativos de IA possam interagir com ferramentas externas de forma eficiente. A arquitetura inclui os seguintes componentes:
- MCP Host: O ambiente onde o modelo de IA (como GPT-4, Claude ou Gemini) é executado.
- Cliente MCP: um serviço intermediário encaminha as solicitações do modelo de IA para servidores MCP, como GitHub Copilot, Cline ou Claude Desktop.
- MCP Server: Aplicativos leves que expõem recursos específicos por APIs de linguagem natural, bancos de dados. Por exemplo, o servidor MCP Fabric RTI pode executar consultas KQL para recuperação de dados em tempo real de bancos de dados KQL.
Principais características
Acesso a Dados em Tempo Real: recupere dados nos bancos de dados KQL em segundos.
Interfaces de Linguagem Natural: Faça perguntas em inglês simples ou em outros idiomas, e o sistema as transforma em consultas otimizadas (NL2KQL).
Descoberta de esquema: descubra esquemas e metadados para que você possa aprender estruturas de dados dinamicamente.
Integração plug-and-play: conecte clientes MCP como GitHub Copilot, Claude e Cline ao RTI com configuração mínima devido a APIs padronizadas e mecanismos de descoberta.
Inferência no idioma local: trabalhe com seus dados no idioma de sua preferência.
Componentes RTI suportados
Eventhouse - Execute consultas KQL nos bancos de dados KQL no back-end do Eventhouse . Essa interface unificada permite que os agentes de IA consultem, raciocinem e ajam em dados em tempo real.
Observação
Você também pode usar o Fabric RTI MCP Server para executar consultas KQL nos clusters no back-end do Azure Data Explorer .