Udostępnij przez


Podręcznik, przykłady, wzorce i inne zasoby dla przepływów pracy sztucznej inteligencji w usłudze Azure Logic Apps

Dotyczy: Azure Logic Apps (Zużycie + Standardowa)

Funkcje sztucznej inteligencji odgrywają szybką i rosnącą rolę w aplikacjach i innym oprogramowaniu, wykonując przydatne, oszczędzając czas lub nowe zadania, takie jak interakcje z czatami. Te możliwości mogą również współpracować z innymi usługami, systemami, aplikacjami i źródłami danych, aby ułatwić tworzenie obciążeń integracji dla przedsiębiorstw i organizacji.

Ten przewodnik zawiera bloki konstrukcyjne, przykłady i inne zasoby, które pokazują, jak używać usług sztucznej inteligencji, takich jak Azure OpenAI, Azure AI Foundry i Azure AI Search z usługą Azure Logic Apps, aby tworzyć zautomatyzowane przepływy pracy dla rozwiązań integracji ze sztuczną inteligencją.

Przepływy pracy z wykorzystaniem agentów sztucznej inteligencji i modeli (wersja demonstracyjna)

Usługa Azure Logic Apps obsługuje standardowe przepływy pracy aplikacji logiki, które wykonują zadania przy użyciu agentów z dużymi modelami językowymi (LLMs). Agent używa proces iteracyjny do rozwiązywania wieloetapowych, złożonych problemów. LLM to wytrenowany program, który rozpoznaje wzorce i wykonuje zadania bez interakcji człowieka.

Na przykład usługa LLM może wykonywać następujące zadania:

  • Analizowanie, interpretowanie i przetwarzanie informacji, takich jak instrukcje, komunikaty i dane wejściowe.
  • Podejmowanie decyzji na podstawie wyników i dostępnych danych.
  • Formułuj i zwracaj odpowiedzi do monitera na podstawie instrukcji agenta.

Po utworzeniu standardowej aplikacji logiki można dodać przepływ pracy, który używa typu przepływu pracy Agenci autonomiczni lub Agenci konwersacyjny . Te typy przepływów pracy tworzą częściowy przepływ pracy zawierający pustą akcję Agent . Na podstawie wybranego typu przepływu pracy można skonfigurować agenta do pracy bez interakcji z ludźmi lub z interakcją człowieka, która odbywa się za pośrednictwem zintegrowanego interfejsu czatu.

Wskazówka

Jeśli zdecydujesz się rozpocząć od nieogentnego przepływu pracy stanowego , zawsze możesz dodać akcję Agent później.

Agent używa języka naturalnego i połączonego modułu LLM do interpretowania wcześniej dostarczonych instrukcji lub interakcji w czasie rzeczywistym, odpowiednio. Agent używa również wygenerowanych przez model danych wyjściowych do wykonania pracy. Model pomaga agentowi zapewnić następujące możliwości:

  • Zaakceptuj informacje o roli agenta, sposobie działania i sposobie reagowania.
  • Odbieranie instrukcji i niezwłoczne odpowiadanie na żądania.
  • Przetwarzanie danych wejściowych, analizowanie danych i podejmowanie wyborów na podstawie dostępnych informacji.
  • Wybierz narzędzia do wykonywania zadań niezbędnych do realizacji żądań. W scenariuszach sztucznej inteligencji narzędzie jest sekwencją z co najmniej jedną akcją, która wykonuje zadanie.
  • Dostosuj się do środowisk wymagających elastyczności i są płynne, dynamiczne, nieprzewidywalne lub niestabilne.

Dzięki dostępnym ponad 1400 łącznikom ułatwiających tworzenie narzędzi do używania agentów przepływy pracy agentów obsługują wiele scenariuszy, które znacznie korzystają z możliwości agenta i modelu.

Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Odnośnik
Dokumentacja Przepływy pracy z agentami i modelami sztucznej inteligencji w usłudze Azure Logic Apps
Dokumentacja Tworzenie przepływów pracy agenta autonomicznego w usłudze Azure Logic Apps
Dokumentacja Tworzenie przepływów pracy agenta konwersacji w usłudze Azure Logic Apps
Lab Tworzenie pierwszego przepływu pracy agenta autonomicznego w usłudze Azure Logic Apps
Lab Tworzenie pierwszego przepływu pracy agenta konwersacyjnego w usłudze Azure Logic Apps
Artykuł w blogu Zapoczątkowanie ery automatyzacji procesów biznesowych obejmujących wiele agentów
Pokaz wideo Zakodowane i deklaratywne różnorodne agenci

Bloki konstrukcyjne dla rozwiązań sztucznej inteligencji

W tej sekcji opisano wbudowane operacje i linki do dokumentacji, która ułatwia tworzenie standardowych przepływów pracy dla scenariuszy integracji sztucznej inteligencji, takich jak pozyskiwanie dokumentów. Te operacje umożliwiają klientom "rozmowę z danymi".

Na przykład łączniki azure OpenAI i Azure AI Search udostępniają operacje upraszczające procesy zaplecza przy użyciu konfiguracji bez kodu. Te operacje nie wymagają użycia kodu niestandardowego, logiki ani konfiguracji.

To podejście bez kodu zmniejsza złożoność integracji funkcji sztucznej inteligencji z przepływami pracy. Możesz zautomatyzować złożone przepływy pracy dla zadań, takich jak analizowanie dokumentów, fragmentowanie danych lub zasilanie modeli sztucznej inteligencji w celu odblokowania pełnego potencjału danych przy minimalnym nakładzie pracy.

Bloki konstrukcyjne sztucznej inteligencji, takie jak wbudowane operacje i łączniki, są dostępne zarówno dla przepływów pracy Zużycie, jak i Standardowe. Przykłady, próbki i zasoby używają standardowych przepływów pracy do ilustracji.

Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Odnośnik
Omówienie wideo Modernizacja integracji przedsiębiorstwa z usługami Azure Integration Services
Omówienie wideo Integrowanie sztucznej inteligencji z przepływami pracy za pomocą usługi Azure Logic Apps
Omówienie wideo Przyspiesz rozwój generatywnej AI z Azure Logic Apps – Integrate 2024

Przygotowywanie zawartości

Poniższe wbudowane akcje i łączniki ułatwiają przygotowanie zawartości do użycia przez usługi sztucznej inteligencji, pozyskiwanie danych i interakcje z czatami.

Nazwisko Możliwości
Analizowanie dokumentu Ta wbudowana akcja konwertuje treści na tokenizowany ciąg znaków, co pozwala na to, aby przepływ pracy mógł odczytywać i analizować tysiące dokumentów w formatach takich jak PDF, DOCX, CSV, PPT, HTML oraz inne, w wielu językach.

Ta akcja ułatwia przygotowanie zawartości do użycia przez usługi Azure AI w przepływach pracy. Na przykład operacje łącznika dla usług azure AI, takich jak Azure OpenAI i Azure AI Search , zwykle oczekują tokenizowanego danych wejściowych i mogą obsługiwać tylko ograniczoną liczbę tokenów.
Tekst fragmentu Ta wbudowana funkcja dzieli tokenizowany ciąg na fragmenty, aby łatwiej można było je użyć w kolejnych akcjach tego samego przepływu pracy. Ta akcja ułatwia przygotowanie zawartości do użycia przez usługi Azure AI w przepływach pracy. Operacje łącznika dla usług azure AI, takich jak Azure OpenAI i Azure AI Search , zwykle oczekują tokenizowanych danych wejściowych i mogą obsługiwać tylko ograniczoną liczbę tokenów.
Azure OpenAI Ten wbudowany łącznik zapewnia operacje na potrzeby funkcji sztucznej inteligencji, takich jak pozyskiwanie danych, generowanie osadzeń i ukończenie czatów, które mają kluczowe znaczenie dla tworzenia zaawansowanych aplikacji AI. Funkcje przetwarzania języka naturalnego można zintegrować w usłudze Azure OpenAI z funkcjami inteligentnego wyszukiwania w usłudze Azure AI Search i innymi łącznikami. Te integracje ułatwiają uzyskiwanie dostępu do magazynów wektorów i pracę z tymi magazynami bez konieczności pisania kodu.

Indeksowanie danych i wektorowe bazy danych

Poniższe łączniki zapewniają operacje na potrzeby indeksowania i pobierania danych podczas pracy z wektorowymi bazami danych, wyszukiwaniem i standardowymi bazami danych.

Nazwisko Możliwości
Wyszukiwanie AI w usłudze Azure Ten wbudowany łącznik zapewnia operacje na potrzeby funkcji sztucznej inteligencji, takich jak ulepszanie pobierania danych za pomocą indeksowania, zaawansowanych operacji wektorów i operacji wyszukiwania hybrydowego.
SQL Server Ten wbudowany łącznik zapewnia operacje pracy z wierszami, tabelami i procedurami składowanymi w bazach danych SQL.
Azure Cosmos DB Ten łącznik zarządzany zapewnia operacje pracy z dokumentami i procedurami składowanymi w globalnie rozproszonych, elastycznych, niezależnie skalowalnych i wielomodelowych bazach danych.

Uwaga: ta usługa nosiła wcześniej nazwę Azure DocumentDB.

Więcej zasobów

Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Zwolnij Odnośnik
Dokumentacja Różne Analizowanie lub fragmentowanie zawartości dla standardowych przepływów pracy w usłudze Azure Logic Apps
Dokumentacja Różne Łączenie z usługami azure AI z przepływów pracy w warstwie Standardowa w usłudze Azure Logic Apps
Dokumentacja Różne Dokumentacja wbudowanych operacji usługi Azure OpenAI
Dokumentacja Różne Dokumentacja wbudowanych operacji usługi Azure AI Search
Dokumentacja Różne Nawiązywanie połączenia z bazą danych SQL w przepływach pracy w usłudze Azure Logic Apps
Dokumentacja Różne Dokumentacja wbudowanych operacji programu SQL Server
Dokumentacja Różne Przetwarzanie i tworzenie dokumentów w usłudze Azure Cosmos DB za pomocą usługi Azure Logic Apps
Dokumentacja Różne Referencja łącznika Azure Cosmos DB
Artykuł w blogu Ogólnie dostępne Łączniki usług Azure OpenAI i Azure AI Search są teraz ogólnie dostępne dla usługi Azure Logic Apps (Standardowa)
Artykuł w blogu Ogólnie dostępne Automatyzacja indeksowania RAG: Azure Logic Apps i wyszukiwanie z wykorzystaniem sztucznej inteligencji na potrzeby przetwarzania dokumentów źródłowych
Artykuł w blogu Publiczna wersja zapoznawcza Łączniki azure OpenAI i Azure AI Search są dostępne w publicznej wersji zapoznawczej dla usługi Azure Logic Apps (Standardowa)
Wideo z pokazem Ogólnie dostępne Tworzenie kompleksowej aplikacji sztucznej inteligencji opartej na usłudze RAG za pomocą usługi Azure Logic Apps (Standardowa)
Wideo z pokazem Publiczna wersja zapoznawcza Pozyskiwanie danych dokumentów do usługi Azure AI Search i czatowanie z danymi przy użyciu usługi Azure Logic Apps
Przykład usługi GitHub Ogólnie dostępne Tworzenie czatu z danymi (RAG) — projekt usługi Azure Logic Apps
Przykład usługi GitHub Publiczna wersja zapoznawcza Tworzenie czatu z danymi — projekt usługi Azure Logic Apps

Rozmowa niemal w czasie rzeczywistym z danymi

W poniższych sekcjach opisano sposoby konfigurowania funkcji czatu niemal w czasie rzeczywistym dla danych przy użyciu usługi Azure Logic Apps i różnych usług sztucznej inteligencji.

Tworzenie asystentów usługi Azure OpenAI za pomocą usługi Azure Logic Apps

Dzięki usłudze Azure OpenAI można łatwo tworzyć funkcje podobne do agentów w aplikacjach przy użyciu interfejsu API Asystentów. Mimo że możliwości tworzenia agentów istniały wcześniej, proces często wymagał znaczącej inżynierii, bibliotek zewnętrznych i wielu integracji.

Dzięki asystentom można teraz szybko tworzyć dostosowane, stanowe copiloty, które są szkolone na danych firmowych i mogą obsługiwać różne zadania przy użyciu najnowszych modeli transformatora wstępnie wytrenowanego (Generative Pretrained Transformer, GPT), a także narzędzi i wiedzy. Bieżąca wersja zawiera funkcje, takie jak narzędzia do wyszukiwania plików i przeglądania, ulepszone funkcje zabezpieczeń danych, ulepszone mechanizmy kontroli, nowe modele i rozszerzona obsługa regionów. Te ulepszenia ułatwiają przejście od tworzenia prototypów do środowiska produkcyjnego.

Asystentów można teraz tworzyć, wywołując przepływy pracy usługi Azure Logic Apps jako funkcje sztucznej inteligencji. Przepływy pracy można odnajdywać, importować i wywoływać w Azure OpenAI Studio z poziomu placu zabaw Asystentów Azure OpenAI, bez konieczności pisania kodu. Asystentzy wyliczają i wyświetla listę wszystkich przepływów pracy w subskrypcji, które kwalifikują się do wywoływania funkcji.

Aby przetestować asystentów z wywoływaniem funkcji, możesz zaimportować przepływy pracy jako funkcje sztucznej inteligencji przy użyciu funkcji przeglądania i wybierania. Generowanie specyfikacji funkcji i inne konfiguracje są automatycznie pobierane z programu Swagger dla przepływu pracy. Wywołanie funkcji wywołuje przepływy pracy na podstawie monitów użytkownika. Wszystkie odpowiednie parametry są przekazywane na podstawie definicji.

Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Odnośnik
Dokumentacja Wywoływanie przepływów pracy usługi Azure Logic Apps jako funkcji przy użyciu asystentów usługi Azure OpenAI
Artykuł w blogu Tworzenie asystentów usługi Azure OpenAI za pomocą wywoływania funkcji
Artykuł w blogu Asystenci sztucznej inteligencji platformy Azure z usługą Azure Logic Apps
Wideo z pokazem Azure Logic Apps jako wtyczka sztucznej inteligencji

Integracja z jądrem semantycznym

Ten lekki zestaw deweloperów typu open source ułatwia tworzenie agentów sztucznej inteligencji i integrowanie najnowszych modeli sztucznej inteligencji z bazą kodu C#, Python lub Java. Na najprostszym poziomie jądro jest kontenerem iniekcji zależności, który zarządza wszystkimi usługami i wtyczkami, które aplikacja sztucznej inteligencji musi uruchomić.

Jeśli udostępniasz wszystkie usługi i wtyczki do jądra, sztuczna inteligencja bezproblemowo używa tych składników zgodnie z potrzebami. Jako składnik centralny jądro służy jako wydajne oprogramowanie pośredniczące, które pomaga szybko dostarczać rozwiązania klasy korporacyjnej.

Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Odnośnik
Artykuł w blogu Integrowanie standardowych przepływów pracy aplikacji logiki jako wtyczek z jądrem semantycznym: przewodnik krok po kroku
Przykład usługi GitHub Semantyczne jądro dla usługi Azure Logic Apps
Dokumentacja Wprowadzenie do jądra semantycznego

Zarządzanie inteligentnym zbieraniem i przetwarzaniem dokumentów

Do tworzenia inteligentnych przepływów pracy przetwarzania dokumentów można używać usługi Azure AI Document Intelligence i Azure Logic Apps. Łącznik analizy dokumentów udostępnia operacje, które ułatwiają wyodrębnianie tekstu i informacji z różnych dokumentów. Analiza dokumentów ułatwia zarządzanie szybkością zbierania i przetwarzania ogromnych ilości danych przechowywanych w formularzach i dokumentach z szeroką gamą typów danych.

Uwaga

Łącznik analizy dokumentów ma obecnie nazwę Rozpoznawanie formularzy w galerii łączników projektanta przepływu pracy dla usługi Azure Logic Apps. Operacje łącznika, które są hostowane i uruchamiane na wielu dzierżawach platformy Azure, można znaleźć w obszarze Etykieta udostępniona w galerii.

Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Odnośnik
Dokumentacja Tworzenie przepływu pracy analizy dokumentów za pomocą usługi Azure Logic Apps
Dokumentacja Dokumentacja konektora Form Recognizer
Wideo z pokazem Przetwarzanie faktur za pomocą usługi Azure Logic Apps i sztucznej inteligencji

Pobieranie rozszerzonej generacji (RAG)

Modele generatywnej sztucznej inteligencji lub duże modele językowe, jak ChatGPT, są trenowane do generowania wyników dla zadań, takich jak odpowiadanie na pytania i uzupełnianie zdań, poprzez użycie dużych ilości danych statycznych i miliardów parametrów. Generowanie wspomagane pobieraniem dodaje możliwości pobierania informacji do modułu LLM, pozwalając mu reagować na zapytania użytkowników, odwołując się do zawartości, która uzupełnia jego dane szkoleniowe.

LLM może użyć RAG, aby umożliwić czatbotom dostęp do informacji specyficznych dla domeny lub zaktualizowanych informacji. Rag może pomóc w zaimplementowaniu przypadków użycia, które zawierają wewnętrzne dane firmy lub informacje faktyczne dostarczane przez autorytatywne źródło.

Rag rozszerza już zaawansowane możliwości usługi LLM na określone domeny lub wewnętrzne baza wiedzy organizacji bez konieczności ponownego trenowania modelu. Architektura RAG zapewnia również ekonomiczne podejście do poprawy i utrzymania odpowiednich, dokładnych i przydatnych wyników LLM.

Przykłady RAG

W poniższych przykładach pokazano sposoby stosowania lub implementowania wzorca RAG przy użyciu standardowych przepływów pracy w usłudze Azure Logic Apps.

Tworzenie kompleksowej aplikacji sztucznej inteligencji opartej na usłudze RAG za pomocą usługi Azure Logic Apps

Tworzenie kompleksowej aplikacji sztucznej inteligencji opartej na usłudze RAG za pomocą usługi Azure Logic Apps (Standardowa)

Rozmowa z danymi ubezpieczeniowymi

W tym przykładzie użyto klasycznego wzorca RAG, w którym przepływ pracy pozyska dokumenty i dane firmy ubezpieczeniowej, aby pracownicy mogli zadawać pytania dotyczące ich korzyści i opcji pokrycia planu. Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Odnośnik
Artykuł w blogu Łączniki azure OpenAI i Azure AI Search są dostępne w publicznej wersji zapoznawczej dla usługi Azure Logic Apps (Standardowa)
Wideo z pokazem Pozyskiwanie danych dokumentów do usługa wyszukiwania usługi Azure AI i czatowanie z danymi za pomocą usługi Azure Logic Apps
Przykład usługi GitHub Tworzenie czatu z danymi — standardowy projekt aplikacji logiki

Automatyzowanie odpowiedzi na pytania dotyczące usługi StackOverflow

W tym przykładzie pokazano, jak przepływ pracy może automatycznie odpowiadać na nowe pytania stackOverflow, które mają określony hashtag przy użyciu łączników azure OpenAI i Azure AI Search . Próbka może pobierać poprzednie wpisy i dokumentację produktu. Gdy jest dostępne nowe pytanie, rozwiązanie może automatycznie odpowiedzieć przy użyciu bazy wiedzy, a następnie poprosić człowieka o zatwierdzenie odpowiedzi przed opublikowaniem w witrynie StackOverflow.

Możesz dostosować ten przepływ pracy, aby wyzwalać codziennie, co tydzień lub co miesiąc oraz usprawnić obsługę społeczności, konfigurując własny zautomatyzowany system odpowiedzi dla dowolnego hashtagu. Możesz również dostosować to rozwiązanie dla biletów w programie Outlook, usłudze ServiceNow lub innych platformach przy użyciu łączników usługi Azure Logic Apps w celu zapewnienia bezpiecznego dostępu.

Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Odnośnik
Artykuł w blogu Automatyzowanie odpowiedzi na zapytania StackOverflow przy użyciu usług Azure OpenAI i Azure Logic Apps
Przykład usługi GitHub Automatyzowanie odpowiedzi na pytania dotyczące rozwiązania StackOverflow bez odpowiedzi

Pozyskiwanie dokumentów i czat z danymi

Dane są podstawą każdej aplikacji sztucznej inteligencji i są unikatowe dla każdej organizacji. Podczas tworzenia aplikacji sztucznej inteligencji efektywne pozyskiwanie danych ma kluczowe znaczenie dla sukcesu. Niezależnie od tego, gdzie znajdują się dane, możesz zintegrować sztuczną inteligencję z nowymi i istniejącymi procesami biznesowymi, tworząc standardowe przepływy pracy, które używają niewielkiej ilości kodu lub bez niego.

Ponad 1400 łączników i operacji przedsiębiorstwa umożliwiają korzystanie z Azure Logic Apps do szybkiego uzyskiwania dostępu i realizacji zadań przy użyciu szerokiej gamy usług, systemów, aplikacji i baz danych. Jeśli używasz tych łączników z usługami sztucznej inteligencji, takimi jak Azure OpenAI i Azure AI Search, organizacja może przekształcać obciążenia, takie jak następujące:

  • Automatyzowanie rutynowych zadań.
  • Ulepszanie interakcji z klientami dzięki możliwościom czatu.
  • Zapewnij dostęp do danych organizacji w razie potrzeby.
  • Generuj inteligentne wnioski lub odpowiedzi.

Na przykład po zintegrowaniu usług sztucznej inteligencji przy użyciu operacji łącznika Azure OpenAI i Azure AI Search w przepływach pracy twoja organizacja może bezproblemowo zaimplementować wzorzec RAG. RAG minimalizuje koszty przy użyciu systemu wyszukiwania informacji do powoływania się na wiedzę specyficzną dla domeny lub autorytatywną oraz rozszerzania szkolenia modelu LLM bez konieczności ponownego trenowania modelu. Aby uzyskać więcej informacji, zapoznaj się z Retrieval-augmented generation (RAG) oraz następującymi zasobami:

Typ zasobu Odnośnik
Artykuł w blogu Pozyskiwanie dokumentów do generowania aplikacji sztucznej inteligencji z ponad 1000 źródeł danych przy użyciu usługi Azure Logic Apps
Wideo z pokazem Pozyskiwanie dokumentu na podstawie rag przy użyciu usługi Azure Logic Apps (Standardowa)

Szybki start z szablonami przepływów pracy

Aby umożliwić integrację sztucznej inteligencji i ułatwić szybkie tworzenie aplikacji, usługa Azure Logic Apps zawiera wstępnie utworzone szablony przepływów pracy, które pozyskują dane z wielu typowych źródeł danych, takich jak SharePoint, Azure File Storage, Blob Storage i Secure File Transfer Protocol (SFTP). Po dodaniu nowego przepływu pracy do aplikacji logiki w warstwie Standard lub Consumption możesz wybrać wstępnie utworzony szablon jako punkt początkowy.

Każdy szablon jest zgodny z typowym wzorcem przepływu pracy, który obsługuje określony scenariusz. Możesz również tworzyć szablony przepływów pracy, które można następnie udostępniać innym deweloperom przepływu pracy, publikując je w repozytorium szablonów usługi GitHub.

W poniższej tabeli opisano przykładowe szablony przepływów pracy:

Źródło dokumentu Opis szablonu Używane usługi sztucznej inteligencji
Analiza dokumentów platformy Azure AI Standardowa: Analizowanie złożonych dokumentów przy użyciu usługi Azure OpenAI. Azure OpenAI
Azure Blob Storage Norma:
- Importowanie i indeksowanie plików przy użyciu wzorca RAG.
— Pozyskiwanie i wektoryzowanie dokumentów w usłudze Azure Cosmos DB for NoSQL przy użyciu wzorca RAG.
— Azure OpenAI
— Azure AI Search
Azure File Storage Norma:
— Importowanie dokumentów do AI Search zgodnie z harmonogramem.
- Pozyskiwanie i indeksowanie plików zgodnie z harmonogramem przy użyciu wzorca RAG.
- Importowanie i indeksowanie plików przy użyciu wzorca RAG.
— Azure OpenAI
— Azure AI Search
Oparte na żądaniach Norma:
- Porozmawiaj ze swoimi dokumentami przy użyciu wzorca RAG.
- Pozyskiwanie i indeksowanie dokumentów przy użyciu wzorca RAG.
— Azure OpenAI
— Azure AI Search
OneDrive dla Firm Konsumpcja:
— Wektorowanie plików z usługi OneDrive dla Firm do wyszukiwania sztucznej inteligencji zgodnie z harmonogramem.

Norma:
- Importowanie i indeksowanie plików przy użyciu wzorca RAG.
— Pobieranie dokumentów z usługi OneDrive do AI Search według harmonogramu.
— Azure OpenAI
— Azure AI Search
SOK Konsumpcja:
— Synchronizowanie partnerów biznesowych z folderem programu SharePoint przy użyciu usługi OData.
SFTP Standard: Pozyskiwanie i indeksowanie plików przy użyciu wzorca RAG. — Azure OpenAI
— Azure AI Search
SharePoint Online Konsumpcja:
— Wektoruj pliki z usługi SharePoint Online do wyszukiwania sztucznej inteligencji na żądanie.

Norma:
- Importowanie i indeksowanie plików przy użyciu wzorca RAG.
— Indeksowanie dokumentów do wyszukiwarki opartej na sztucznej inteligencji. Pobieranie i rozumowanie za pomocą modułów LLM usługi Azure OpenAI według wzorca RAG.
— Azure OpenAI
— Azure AI Search

Aby uzyskać więcej informacji, zobacz następujące zasoby:

Typ zasobu Odnośnik
Artykuł w blogu Szablony usługi Azure Logic Apps w warstwie Standardowa są teraz dostępne w publicznej wersji zapoznawczej
Wideo z pokazem Standardowe szablony przepływów pracy dla usługi Azure Logic Apps
Dokumentacja Utwórz standardowy przepływ pracy w jednodzierżawowej usłudze Azure Logic Apps
Dokumentacja Tworzenie i publikowanie szablonów przepływów pracy dla usługi Azure Logic Apps
Dokumentacja Analizowanie lub fragmentowanie zawartości dla standardowych przepływów pracy w usłudze Azure Logic Apps
Dokumentacja Łączenie z usługami azure AI z przepływów pracy w warstwie Standardowa w usłudze Azure Logic Apps