Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Dotyczy: Azure Logic Apps (Zużycie + Standardowa)
Funkcje sztucznej inteligencji odgrywają szybką i rosnącą rolę w aplikacjach i innym oprogramowaniu, wykonując przydatne, oszczędzając czas lub nowe zadania, takie jak interakcje z czatami. Te możliwości mogą również współpracować z innymi usługami, systemami, aplikacjami i źródłami danych, aby ułatwić tworzenie obciążeń integracji dla przedsiębiorstw i organizacji.
Ten przewodnik zawiera bloki konstrukcyjne, przykłady i inne zasoby, które pokazują, jak używać usług sztucznej inteligencji, takich jak Azure OpenAI, Azure AI Foundry i Azure AI Search z usługą Azure Logic Apps, aby tworzyć zautomatyzowane przepływy pracy dla rozwiązań integracji ze sztuczną inteligencją.
Przepływy pracy z wykorzystaniem agentów sztucznej inteligencji i modeli (wersja demonstracyjna)
Usługa Azure Logic Apps obsługuje standardowe przepływy pracy aplikacji logiki, które wykonują zadania przy użyciu agentów z dużymi modelami językowymi (LLMs). Agent używa proces iteracyjny do rozwiązywania wieloetapowych, złożonych problemów. LLM to wytrenowany program, który rozpoznaje wzorce i wykonuje zadania bez interakcji człowieka.
Na przykład usługa LLM może wykonywać następujące zadania:
- Analizowanie, interpretowanie i przetwarzanie informacji, takich jak instrukcje, komunikaty i dane wejściowe.
- Podejmowanie decyzji na podstawie wyników i dostępnych danych.
- Formułuj i zwracaj odpowiedzi do monitera na podstawie instrukcji agenta.
Po utworzeniu standardowej aplikacji logiki można dodać przepływ pracy, który używa typu przepływu pracy Agenci autonomiczni lub Agenci konwersacyjny . Te typy przepływów pracy tworzą częściowy przepływ pracy zawierający pustą akcję Agent . Na podstawie wybranego typu przepływu pracy można skonfigurować agenta do pracy bez interakcji z ludźmi lub z interakcją człowieka, która odbywa się za pośrednictwem zintegrowanego interfejsu czatu.
Wskazówka
Jeśli zdecydujesz się rozpocząć od nieogentnego przepływu pracy stanowego , zawsze możesz dodać akcję Agent później.
Agent używa języka naturalnego i połączonego modułu LLM do interpretowania wcześniej dostarczonych instrukcji lub interakcji w czasie rzeczywistym, odpowiednio. Agent używa również wygenerowanych przez model danych wyjściowych do wykonania pracy. Model pomaga agentowi zapewnić następujące możliwości:
- Zaakceptuj informacje o roli agenta, sposobie działania i sposobie reagowania.
- Odbieranie instrukcji i niezwłoczne odpowiadanie na żądania.
- Przetwarzanie danych wejściowych, analizowanie danych i podejmowanie wyborów na podstawie dostępnych informacji.
- Wybierz narzędzia do wykonywania zadań niezbędnych do realizacji żądań. W scenariuszach sztucznej inteligencji narzędzie jest sekwencją z co najmniej jedną akcją, która wykonuje zadanie.
- Dostosuj się do środowisk wymagających elastyczności i są płynne, dynamiczne, nieprzewidywalne lub niestabilne.
Dzięki dostępnym ponad 1400 łącznikom ułatwiających tworzenie narzędzi do używania agentów przepływy pracy agentów obsługują wiele scenariuszy, które znacznie korzystają z możliwości agenta i modelu.
Aby uzyskać więcej informacji, zobacz następujące zasoby:
Bloki konstrukcyjne dla rozwiązań sztucznej inteligencji
W tej sekcji opisano wbudowane operacje i linki do dokumentacji, która ułatwia tworzenie standardowych przepływów pracy dla scenariuszy integracji sztucznej inteligencji, takich jak pozyskiwanie dokumentów. Te operacje umożliwiają klientom "rozmowę z danymi".
Na przykład łączniki azure OpenAI i Azure AI Search udostępniają operacje upraszczające procesy zaplecza przy użyciu konfiguracji bez kodu. Te operacje nie wymagają użycia kodu niestandardowego, logiki ani konfiguracji.
To podejście bez kodu zmniejsza złożoność integracji funkcji sztucznej inteligencji z przepływami pracy. Możesz zautomatyzować złożone przepływy pracy dla zadań, takich jak analizowanie dokumentów, fragmentowanie danych lub zasilanie modeli sztucznej inteligencji w celu odblokowania pełnego potencjału danych przy minimalnym nakładzie pracy.
Bloki konstrukcyjne sztucznej inteligencji, takie jak wbudowane operacje i łączniki, są dostępne zarówno dla przepływów pracy Zużycie, jak i Standardowe. Przykłady, próbki i zasoby używają standardowych przepływów pracy do ilustracji.
Aby uzyskać więcej informacji, zobacz następujące zasoby:
| Typ zasobu | Odnośnik |
|---|---|
| Omówienie wideo | Modernizacja integracji przedsiębiorstwa z usługami Azure Integration Services |
| Omówienie wideo | Integrowanie sztucznej inteligencji z przepływami pracy za pomocą usługi Azure Logic Apps |
| Omówienie wideo | Przyspiesz rozwój generatywnej AI z Azure Logic Apps – Integrate 2024 |
Przygotowywanie zawartości
Poniższe wbudowane akcje i łączniki ułatwiają przygotowanie zawartości do użycia przez usługi sztucznej inteligencji, pozyskiwanie danych i interakcje z czatami.
| Nazwisko | Możliwości |
|---|---|
| Analizowanie dokumentu | Ta wbudowana akcja konwertuje treści na tokenizowany ciąg znaków, co pozwala na to, aby przepływ pracy mógł odczytywać i analizować tysiące dokumentów w formatach takich jak PDF, DOCX, CSV, PPT, HTML oraz inne, w wielu językach. Ta akcja ułatwia przygotowanie zawartości do użycia przez usługi Azure AI w przepływach pracy. Na przykład operacje łącznika dla usług azure AI, takich jak Azure OpenAI i Azure AI Search , zwykle oczekują tokenizowanego danych wejściowych i mogą obsługiwać tylko ograniczoną liczbę tokenów. |
| Tekst fragmentu | Ta wbudowana funkcja dzieli tokenizowany ciąg na fragmenty, aby łatwiej można było je użyć w kolejnych akcjach tego samego przepływu pracy. Ta akcja ułatwia przygotowanie zawartości do użycia przez usługi Azure AI w przepływach pracy. Operacje łącznika dla usług azure AI, takich jak Azure OpenAI i Azure AI Search , zwykle oczekują tokenizowanych danych wejściowych i mogą obsługiwać tylko ograniczoną liczbę tokenów. |
| Azure OpenAI | Ten wbudowany łącznik zapewnia operacje na potrzeby funkcji sztucznej inteligencji, takich jak pozyskiwanie danych, generowanie osadzeń i ukończenie czatów, które mają kluczowe znaczenie dla tworzenia zaawansowanych aplikacji AI. Funkcje przetwarzania języka naturalnego można zintegrować w usłudze Azure OpenAI z funkcjami inteligentnego wyszukiwania w usłudze Azure AI Search i innymi łącznikami. Te integracje ułatwiają uzyskiwanie dostępu do magazynów wektorów i pracę z tymi magazynami bez konieczności pisania kodu. |
Indeksowanie danych i wektorowe bazy danych
Poniższe łączniki zapewniają operacje na potrzeby indeksowania i pobierania danych podczas pracy z wektorowymi bazami danych, wyszukiwaniem i standardowymi bazami danych.
| Nazwisko | Możliwości |
|---|---|
| Wyszukiwanie AI w usłudze Azure | Ten wbudowany łącznik zapewnia operacje na potrzeby funkcji sztucznej inteligencji, takich jak ulepszanie pobierania danych za pomocą indeksowania, zaawansowanych operacji wektorów i operacji wyszukiwania hybrydowego. |
| SQL Server | Ten wbudowany łącznik zapewnia operacje pracy z wierszami, tabelami i procedurami składowanymi w bazach danych SQL. |
| Azure Cosmos DB | Ten łącznik zarządzany zapewnia operacje pracy z dokumentami i procedurami składowanymi w globalnie rozproszonych, elastycznych, niezależnie skalowalnych i wielomodelowych bazach danych. Uwaga: ta usługa nosiła wcześniej nazwę Azure DocumentDB. |
Więcej zasobów
Aby uzyskać więcej informacji, zobacz następujące zasoby:
Rozmowa niemal w czasie rzeczywistym z danymi
W poniższych sekcjach opisano sposoby konfigurowania funkcji czatu niemal w czasie rzeczywistym dla danych przy użyciu usługi Azure Logic Apps i różnych usług sztucznej inteligencji.
Tworzenie asystentów usługi Azure OpenAI za pomocą usługi Azure Logic Apps
Dzięki usłudze Azure OpenAI można łatwo tworzyć funkcje podobne do agentów w aplikacjach przy użyciu interfejsu API Asystentów. Mimo że możliwości tworzenia agentów istniały wcześniej, proces często wymagał znaczącej inżynierii, bibliotek zewnętrznych i wielu integracji.
Dzięki asystentom można teraz szybko tworzyć dostosowane, stanowe copiloty, które są szkolone na danych firmowych i mogą obsługiwać różne zadania przy użyciu najnowszych modeli transformatora wstępnie wytrenowanego (Generative Pretrained Transformer, GPT), a także narzędzi i wiedzy. Bieżąca wersja zawiera funkcje, takie jak narzędzia do wyszukiwania plików i przeglądania, ulepszone funkcje zabezpieczeń danych, ulepszone mechanizmy kontroli, nowe modele i rozszerzona obsługa regionów. Te ulepszenia ułatwiają przejście od tworzenia prototypów do środowiska produkcyjnego.
Asystentów można teraz tworzyć, wywołując przepływy pracy usługi Azure Logic Apps jako funkcje sztucznej inteligencji. Przepływy pracy można odnajdywać, importować i wywoływać w Azure OpenAI Studio z poziomu placu zabaw Asystentów Azure OpenAI, bez konieczności pisania kodu. Asystentzy wyliczają i wyświetla listę wszystkich przepływów pracy w subskrypcji, które kwalifikują się do wywoływania funkcji.
Aby przetestować asystentów z wywoływaniem funkcji, możesz zaimportować przepływy pracy jako funkcje sztucznej inteligencji przy użyciu funkcji przeglądania i wybierania. Generowanie specyfikacji funkcji i inne konfiguracje są automatycznie pobierane z programu Swagger dla przepływu pracy. Wywołanie funkcji wywołuje przepływy pracy na podstawie monitów użytkownika. Wszystkie odpowiednie parametry są przekazywane na podstawie definicji.
Aby uzyskać więcej informacji, zobacz następujące zasoby:
| Typ zasobu | Odnośnik |
|---|---|
| Dokumentacja | Wywoływanie przepływów pracy usługi Azure Logic Apps jako funkcji przy użyciu asystentów usługi Azure OpenAI |
| Artykuł w blogu | Tworzenie asystentów usługi Azure OpenAI za pomocą wywoływania funkcji |
| Artykuł w blogu | Asystenci sztucznej inteligencji platformy Azure z usługą Azure Logic Apps |
| Wideo z pokazem | Azure Logic Apps jako wtyczka sztucznej inteligencji |
Integracja z jądrem semantycznym
Ten lekki zestaw deweloperów typu open source ułatwia tworzenie agentów sztucznej inteligencji i integrowanie najnowszych modeli sztucznej inteligencji z bazą kodu C#, Python lub Java. Na najprostszym poziomie jądro jest kontenerem iniekcji zależności, który zarządza wszystkimi usługami i wtyczkami, które aplikacja sztucznej inteligencji musi uruchomić.
Jeśli udostępniasz wszystkie usługi i wtyczki do jądra, sztuczna inteligencja bezproblemowo używa tych składników zgodnie z potrzebami. Jako składnik centralny jądro służy jako wydajne oprogramowanie pośredniczące, które pomaga szybko dostarczać rozwiązania klasy korporacyjnej.
Aby uzyskać więcej informacji, zobacz następujące zasoby:
| Typ zasobu | Odnośnik |
|---|---|
| Artykuł w blogu | Integrowanie standardowych przepływów pracy aplikacji logiki jako wtyczek z jądrem semantycznym: przewodnik krok po kroku |
| Przykład usługi GitHub | Semantyczne jądro dla usługi Azure Logic Apps |
| Dokumentacja | Wprowadzenie do jądra semantycznego |
Zarządzanie inteligentnym zbieraniem i przetwarzaniem dokumentów
Do tworzenia inteligentnych przepływów pracy przetwarzania dokumentów można używać usługi Azure AI Document Intelligence i Azure Logic Apps. Łącznik analizy dokumentów udostępnia operacje, które ułatwiają wyodrębnianie tekstu i informacji z różnych dokumentów. Analiza dokumentów ułatwia zarządzanie szybkością zbierania i przetwarzania ogromnych ilości danych przechowywanych w formularzach i dokumentach z szeroką gamą typów danych.
Uwaga
Łącznik analizy dokumentów ma obecnie nazwę Rozpoznawanie formularzy w galerii łączników projektanta przepływu pracy dla usługi Azure Logic Apps. Operacje łącznika, które są hostowane i uruchamiane na wielu dzierżawach platformy Azure, można znaleźć w obszarze Etykieta udostępniona w galerii.
Aby uzyskać więcej informacji, zobacz następujące zasoby:
| Typ zasobu | Odnośnik |
|---|---|
| Dokumentacja | Tworzenie przepływu pracy analizy dokumentów za pomocą usługi Azure Logic Apps |
| Dokumentacja | Dokumentacja konektora Form Recognizer |
| Wideo z pokazem | Przetwarzanie faktur za pomocą usługi Azure Logic Apps i sztucznej inteligencji |
Pobieranie rozszerzonej generacji (RAG)
Modele generatywnej sztucznej inteligencji lub duże modele językowe, jak ChatGPT, są trenowane do generowania wyników dla zadań, takich jak odpowiadanie na pytania i uzupełnianie zdań, poprzez użycie dużych ilości danych statycznych i miliardów parametrów. Generowanie wspomagane pobieraniem dodaje możliwości pobierania informacji do modułu LLM, pozwalając mu reagować na zapytania użytkowników, odwołując się do zawartości, która uzupełnia jego dane szkoleniowe.
LLM może użyć RAG, aby umożliwić czatbotom dostęp do informacji specyficznych dla domeny lub zaktualizowanych informacji. Rag może pomóc w zaimplementowaniu przypadków użycia, które zawierają wewnętrzne dane firmy lub informacje faktyczne dostarczane przez autorytatywne źródło.
Rag rozszerza już zaawansowane możliwości usługi LLM na określone domeny lub wewnętrzne baza wiedzy organizacji bez konieczności ponownego trenowania modelu. Architektura RAG zapewnia również ekonomiczne podejście do poprawy i utrzymania odpowiednich, dokładnych i przydatnych wyników LLM.
Przykłady RAG
W poniższych przykładach pokazano sposoby stosowania lub implementowania wzorca RAG przy użyciu standardowych przepływów pracy w usłudze Azure Logic Apps.
Tworzenie kompleksowej aplikacji sztucznej inteligencji opartej na usłudze RAG za pomocą usługi Azure Logic Apps
Rozmowa z danymi ubezpieczeniowymi
W tym przykładzie użyto klasycznego wzorca RAG, w którym przepływ pracy pozyska dokumenty i dane firmy ubezpieczeniowej, aby pracownicy mogli zadawać pytania dotyczące ich korzyści i opcji pokrycia planu. Aby uzyskać więcej informacji, zobacz następujące zasoby:
Automatyzowanie odpowiedzi na pytania dotyczące usługi StackOverflow
W tym przykładzie pokazano, jak przepływ pracy może automatycznie odpowiadać na nowe pytania stackOverflow, które mają określony hashtag przy użyciu łączników azure OpenAI i Azure AI Search . Próbka może pobierać poprzednie wpisy i dokumentację produktu. Gdy jest dostępne nowe pytanie, rozwiązanie może automatycznie odpowiedzieć przy użyciu bazy wiedzy, a następnie poprosić człowieka o zatwierdzenie odpowiedzi przed opublikowaniem w witrynie StackOverflow.
Możesz dostosować ten przepływ pracy, aby wyzwalać codziennie, co tydzień lub co miesiąc oraz usprawnić obsługę społeczności, konfigurując własny zautomatyzowany system odpowiedzi dla dowolnego hashtagu. Możesz również dostosować to rozwiązanie dla biletów w programie Outlook, usłudze ServiceNow lub innych platformach przy użyciu łączników usługi Azure Logic Apps w celu zapewnienia bezpiecznego dostępu.
Aby uzyskać więcej informacji, zobacz następujące zasoby:
| Typ zasobu | Odnośnik |
|---|---|
| Artykuł w blogu | Automatyzowanie odpowiedzi na zapytania StackOverflow przy użyciu usług Azure OpenAI i Azure Logic Apps |
| Przykład usługi GitHub | Automatyzowanie odpowiedzi na pytania dotyczące rozwiązania StackOverflow bez odpowiedzi |
Pozyskiwanie dokumentów i czat z danymi
Dane są podstawą każdej aplikacji sztucznej inteligencji i są unikatowe dla każdej organizacji. Podczas tworzenia aplikacji sztucznej inteligencji efektywne pozyskiwanie danych ma kluczowe znaczenie dla sukcesu. Niezależnie od tego, gdzie znajdują się dane, możesz zintegrować sztuczną inteligencję z nowymi i istniejącymi procesami biznesowymi, tworząc standardowe przepływy pracy, które używają niewielkiej ilości kodu lub bez niego.
Ponad 1400 łączników i operacji przedsiębiorstwa umożliwiają korzystanie z Azure Logic Apps do szybkiego uzyskiwania dostępu i realizacji zadań przy użyciu szerokiej gamy usług, systemów, aplikacji i baz danych. Jeśli używasz tych łączników z usługami sztucznej inteligencji, takimi jak Azure OpenAI i Azure AI Search, organizacja może przekształcać obciążenia, takie jak następujące:
- Automatyzowanie rutynowych zadań.
- Ulepszanie interakcji z klientami dzięki możliwościom czatu.
- Zapewnij dostęp do danych organizacji w razie potrzeby.
- Generuj inteligentne wnioski lub odpowiedzi.
Na przykład po zintegrowaniu usług sztucznej inteligencji przy użyciu operacji łącznika Azure OpenAI i Azure AI Search w przepływach pracy twoja organizacja może bezproblemowo zaimplementować wzorzec RAG. RAG minimalizuje koszty przy użyciu systemu wyszukiwania informacji do powoływania się na wiedzę specyficzną dla domeny lub autorytatywną oraz rozszerzania szkolenia modelu LLM bez konieczności ponownego trenowania modelu. Aby uzyskać więcej informacji, zapoznaj się z Retrieval-augmented generation (RAG) oraz następującymi zasobami:
Szybki start z szablonami przepływów pracy
Aby umożliwić integrację sztucznej inteligencji i ułatwić szybkie tworzenie aplikacji, usługa Azure Logic Apps zawiera wstępnie utworzone szablony przepływów pracy, które pozyskują dane z wielu typowych źródeł danych, takich jak SharePoint, Azure File Storage, Blob Storage i Secure File Transfer Protocol (SFTP). Po dodaniu nowego przepływu pracy do aplikacji logiki w warstwie Standard lub Consumption możesz wybrać wstępnie utworzony szablon jako punkt początkowy.
Każdy szablon jest zgodny z typowym wzorcem przepływu pracy, który obsługuje określony scenariusz. Możesz również tworzyć szablony przepływów pracy, które można następnie udostępniać innym deweloperom przepływu pracy, publikując je w repozytorium szablonów usługi GitHub.
W poniższej tabeli opisano przykładowe szablony przepływów pracy:
| Źródło dokumentu | Opis szablonu | Używane usługi sztucznej inteligencji |
|---|---|---|
| Analiza dokumentów platformy Azure AI | Standardowa: Analizowanie złożonych dokumentów przy użyciu usługi Azure OpenAI. | Azure OpenAI |
| Azure Blob Storage | Norma: - Importowanie i indeksowanie plików przy użyciu wzorca RAG. — Pozyskiwanie i wektoryzowanie dokumentów w usłudze Azure Cosmos DB for NoSQL przy użyciu wzorca RAG. |
— Azure OpenAI — Azure AI Search |
| Azure File Storage | Norma: — Importowanie dokumentów do AI Search zgodnie z harmonogramem. - Pozyskiwanie i indeksowanie plików zgodnie z harmonogramem przy użyciu wzorca RAG. - Importowanie i indeksowanie plików przy użyciu wzorca RAG. |
— Azure OpenAI — Azure AI Search |
| Oparte na żądaniach | Norma: - Porozmawiaj ze swoimi dokumentami przy użyciu wzorca RAG. - Pozyskiwanie i indeksowanie dokumentów przy użyciu wzorca RAG. |
— Azure OpenAI — Azure AI Search |
| OneDrive dla Firm | Konsumpcja: — Wektorowanie plików z usługi OneDrive dla Firm do wyszukiwania sztucznej inteligencji zgodnie z harmonogramem. Norma: - Importowanie i indeksowanie plików przy użyciu wzorca RAG. — Pobieranie dokumentów z usługi OneDrive do AI Search według harmonogramu. |
— Azure OpenAI — Azure AI Search |
| SOK | Konsumpcja: — Synchronizowanie partnerów biznesowych z folderem programu SharePoint przy użyciu usługi OData. |
|
| SFTP | Standard: Pozyskiwanie i indeksowanie plików przy użyciu wzorca RAG. | — Azure OpenAI — Azure AI Search |
| SharePoint Online | Konsumpcja: — Wektoruj pliki z usługi SharePoint Online do wyszukiwania sztucznej inteligencji na żądanie. Norma: - Importowanie i indeksowanie plików przy użyciu wzorca RAG. — Indeksowanie dokumentów do wyszukiwarki opartej na sztucznej inteligencji. Pobieranie i rozumowanie za pomocą modułów LLM usługi Azure OpenAI według wzorca RAG. |
— Azure OpenAI — Azure AI Search |
Aby uzyskać więcej informacji, zobacz następujące zasoby: