Udostępnij przez


Integrowanie sztucznej inteligencji z aplikacjami usługi Azure App Service

Ten artykuł zawiera instrukcje dotyczące samouczków i zasobów specyficznych dla języka, które ułatwiają tworzenie inteligentnych aplikacji za pomocą usługi App Service.

Usługa Azure App Service ułatwia integrowanie funkcji sztucznej inteligencji z aplikacjami internetowymi w wielu językach programowania i strukturach. Niezależnie od tego, czy chcesz używać zaawansowanych modeli Azure OpenAI, wdrażać lokalne modele małych języków (SLM) bezpośrednio z aplikacjami, tworzyć aplikacje internetowe agentów, uwidaczniać aplikację jako narzędzie dla agentów sztucznej inteligencji przy użyciu interfejsu OpenAPI, serwerów protokołu MCP (Host Model Context Protocol) lub implementować zaawansowane wzorce, takie jak pobieranie rozszerzonej generacji (RAG), usługa App Service zapewnia elastyczną, bezpieczną platformę potrzebną dla aplikacji opartych na sztucznej inteligencji.

Usługa App Service oferuje kilka zalet tworzenia i wdrażania aplikacji opartych na sztucznej inteligencji:

  • Natywna integracja z usługami Azure AI — bezproblemowe łączenie się z usługami Azure OpenAI i innymi usługami sztucznej inteligencji przy użyciu tożsamości zarządzanych na potrzeby bezpiecznego uwierzytelniania bez hasła
  • Obsługa lokalnego programu SLM — używanie rozszerzeń przyczepki do wdrażania mniejszych modeli językowych bezpośrednio z aplikacją
  • Zabezpieczenia klasy korporacyjnej — implementowanie izolacji sieci, kompleksowego szyfrowania i kontroli dostępu opartej na rolach
  • Uproszczone metodyki DevOps z integracją z usługą GitHub — usprawnij potoki ciągłej integracji/ciągłego wdrażania przy użyciu funkcji GitHub Actions, korzystaj z usługi GitHub Codespaces ze zintegrowanym rozwiązaniem GitHub Copilot na potrzeby programowania wspomaganego przez sztuczną inteligencję i twórz kompleksowe przepływy pracy od programowania do wdrożenia produkcyjnego

Tworzenie czatbotów i aplikacji RAG w usłudze App Service

Twórz inteligentne aplikacje internetowe korzystające z usługi Azure OpenAI na potrzeby czatu lub pobierania rozszerzonej generacji (RAG). W tych samouczkach pokazano, jak zintegrować usługę Azure OpenAI i (opcjonalnie) usługę Azure AI Search w celu tworzenia czatbotów i rozwiązań RAG w preferowanym języku przy użyciu tożsamości zarządzanych na potrzeby bezpiecznego uwierzytelniania.

Tworzenie aplikacji internetowych agentów

Przekształć tradycyjne aplikacje internetowe CRUD na potrzeby ery sztucznej inteligencji, dodając możliwości agentów za pomocą struktur, takich jak Microsoft Semantic Kernel, LangGraph lub Foundry Agent Service. Zamiast nawigować po formularzach, polach tekstowych i listach rozwijanych, możesz zaoferować interfejs konwersacyjny, który umożliwia użytkownikom "rozmowę z agentem", który inteligentnie wykonuje te same operacje zapewniane przez aplikację. Takie podejście umożliwia aplikacji internetowej rozumowania, planowania i podejmowania działań w imieniu użytkowników.

Narzędzie App Service as OpenAPI w agencie Microsoft Foundry

Zwiększ możliwości istniejących aplikacji internetowych, eksponując ich funkcje dla usługi agenta Foundry za pomocą OpenAPI. Wiele aplikacji internetowych udostępnia już interfejsy API REST, dzięki czemu są idealnymi kandydatami do integracji z agentami, którzy mogą wywoływać interfejsy API REST jako narzędzia. Łącząc usługę agenta foundry z tymi interfejsami API, możesz szybko tworzyć zaawansowanych, bogatych w funkcje agentów z niewielkim kodem.

Serwery protokołu MCP (App Service as Model Context Protocol)

Zintegruj aplikację internetową jako serwer MCP (Model Context Protocol), aby rozszerzyć możliwości wiodących osobistych agentów sztucznej inteligencji, takich jak GitHub Copilot Chat, Cursor i Winsurf. Uwidaczniając interfejsy API aplikacji za pośrednictwem mcP, możesz doładować tych agentów za pomocą unikatowych funkcji i logiki biznesowej, które zapewnia twoja aplikacja internetowa, bez większych wysiłków programistycznych ani architektury.

Korzystanie z lokalnego programu SLM (kontener przyczepki)

Wdróż aplikację internetową przy użyciu lokalnego modelu małego języka (SLM) jako kontenera przyczepki, aby uruchamiać modele sztucznej inteligencji w całości w środowisku usługi App Service. Nie są wymagane żadne wywołania wychodzące ani zewnętrzne zależności usługi sztucznej inteligencji. Takie podejście jest idealne, jeśli masz ścisłe wymagania dotyczące prywatności danych lub zgodności, ponieważ wszystkie przetwarzanie sztucznej inteligencji i dane pozostają lokalne w aplikacji. Usługa App Service oferuje wysokowydajne warstwy cenowe zoptymalizowane pod kątem pamięci potrzebne do uruchamiania umów SLA w przyczepkach.

Uwierzytelnianie wywołań narzędzi w usłudze App Service

Zabezpieczanie aplikacji opartych na sztucznej inteligencji przy użyciu uwierzytelniania i autoryzacji firmy Microsoft. W tych przewodnikach pokazano, jak chronić narzędzia OpenAPI i serwery MCP w usłudze Azure App Service, aby tylko autoryzowani użytkownicy i agenci mogli uzyskiwać do nich dostęp.

Więcej zasobów