Udostępnij przez


Co to jest serwer MCP usługi Fabric RTI (wersja zapoznawcza)?

Integrowanie protokołu MCP (Model Context Protocol) z usługą Real-Time Intelligence (RTI) umożliwia uzyskiwanie szczegółowych informacji i akcji opartych na sztucznej inteligencji w czasie rzeczywistym. Serwer MCP umożliwia agentom sztucznej inteligencji lub aplikacjom sztucznej inteligencji interakcję z usługą Fabric RTI lub Azure Data Explorer (ADX), udostępniając narzędzia za pośrednictwem interfejsu MCP, dzięki czemu można łatwo wykonywać zapytania i analizować dane.

Obsługa mcp dla RTI i ADX to pełna implementacja serwera MCP typu open source dla usługi Microsoft Fabric Real-Time Intelligence (RTI).

Ważne

Ta funkcja jest dostępna w wersji zapoznawczej.

Wprowadzenie do protokołu MCP (Model Context Protocol)

Model Context Protocol (MCP) to protokół, który umożliwia modelom sztucznej inteligencji, takim jak modele usługi Azure OpenAI, interakcję z zewnętrznymi narzędziami i zasobami. McP ułatwia agentom znajdowanie, nawiązywanie połączenia z danymi przedsiębiorstwa i korzystanie z nich.

Scenariusze

Najczęstszym scenariuszem użycia serwera MCP RTI jest nawiązanie z nim połączenia z istniejącym klientem sztucznej inteligencji, takim jak Cline, Claude i GitHub copilot. Następnie klient może używać wszystkich dostępnych narzędzi do uzyskiwania dostępu do zasobów RTI lub ADX i korzystania z nich przy użyciu języka naturalnego. Można na przykład użyć trybu agenta GitHub Copilot z serwerem RTI MCP, aby wyświetlić listę baz danych KQL lub klastrów ADX lub uruchamiać zapytania języka naturalnego w usłudze RTI Eventhouses.

Architektura

Serwer MCP RTI jest podstawą systemu i działa jako most między agentami sztucznej inteligencji a źródłami danych. Agenci wysyłają żądania do serwera MCP, co przekłada je na zapytania usługi Eventhouse.

Diagram przedstawiający architekturę MCP.

Ta architektura umożliwia tworzenie modułowych, skalowalnych i bezpiecznych inteligentnych aplikacji, które reagują na sygnały w czasie rzeczywistym. McP korzysta z architektury klient-serwer, więc aplikacje sztucznej inteligencji mogą efektywnie korzystać z narzędzi zewnętrznych. Architektura obejmuje następujące składniki:

  • Host MCP: środowisko, w którym działa model sztucznej inteligencji (np. GPT-4, Claude lub Gemini).
  • Klient MCP: pośrednicząca usługa przekazuje żądania modelu sztucznej inteligencji do serwerów MCP, takich jak GitHub Copilot, Cline lub Claude Desktop.
  • Serwer MCP: lekkie aplikacje ujawniające określone możliwości przez interfejsy API języka naturalnego oraz bazy danych. Na przykład serwer FABRIC RTI MCP może wykonywać zapytania KQL na potrzeby pobierania danych w czasie rzeczywistym z baz danych KQL.

Kluczowe funkcje

Dostęp do danych w czasie rzeczywistym: Pozyskiwanie danych z baz danych KQL w sekundach.

Interfejsy języka naturalnego: zadaj pytania w języku angielskim lub w innych językach, a system przekształca je w zoptymalizowane zapytania (NL2KQL).

Odnajdywanie schematów: odnajdywanie schematów i metadanych, dzięki czemu można dynamicznie uczyć się struktur danych.

Integracja Plug-and-Play: łączenie klientów MCP, takich jak GitHub Copilot, Claude i Cline, z RTI z minimalną konfiguracją dzięki ustandaryzowanym interfejsom API i mechanizmom wykrywania.

Wnioskowanie języka lokalnego: praca z danymi w preferowanym języku.

Obsługiwane składniki RTI

Eventhouse — uruchamianie zapytań KQL w bazach danych KQL w zapleczu Eventhouse. Ten ujednolicony interfejs umożliwia agentom sztucznej inteligencji formułowanie zapytań, rozumowanie i działanie na podstawie danych w czasie rzeczywistym.

Uwaga / Notatka

Za pomocą serwera MCP usługi Fabric RTI można również uruchamiać zapytania KQL względem klastrów w zapleczu usługi Azure Data Explorer .