Udostępnij przez


Pobieranie rozszerzonej generacji przy użyciu przepływu monitu usługi Azure Machine Learning (wersja zapoznawcza)

Ważne

Ta funkcja jest obecnie w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą być nieobsługiwane lub ograniczone.

Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.

Pobieranie rozszerzonej generacji (RAG) to wzorzec, który współpracuje ze wstępnie wytrenowanym dużymi modelami językowymi (LLM) i własnymi danymi w celu wygenerowania odpowiedzi. W usłudze Azure Machine Learning można teraz zaimplementować narzędzie RAG w natychmiastowym przepływie. Obsługa RAG jest obecnie dostępna w publicznej wersji zapoznawczej.

W tym artykule wymieniono niektóre korzyści z programu RAG, przedstawiono omówienie techniczne i opisano obsługę rag w usłudze Azure Machine Learning.

Uwaga

Czy dopiero zaczynasz korzystać z koncepcji LLM i RAG? Ten klip wideo z prezentacji firmy Microsoft oferuje proste wyjaśnienie.

Dlaczego warto używać programu RAG?

Tradycyjnie trenujesz model podstawowy z danymi punktowymi w czasie, aby zapewnić jego skuteczność w wykonywaniu określonych zadań i adaptacji do docelowej domeny. Jednak czasami trzeba pracować z nowszymi lub bardziej aktualnymi danymi. Dwa podejścia mogą uzupełniać model podstawowy: dostrajanie lub dalsze szkolenie modelu podstawowego przy użyciu nowych danych lub RAG, które używają monitu inżynieryjnego do uzupełnienia lub kierowania modelem w czasie rzeczywistym.

Dostrajanie jest odpowiednie do ciągłej adaptacji domeny, co umożliwia znaczne ulepszenia jakości modelu, ale często wiąże się z wyższymi kosztami. Z drugiej strony funkcja RAG oferuje alternatywne podejście, umożliwiając korzystanie z tego samego modelu co aparat rozumowania w przypadku nowych danych dostarczonych w wierszu polecenia. Ta technika umożliwia uczenie w kontekście bez konieczności kosztownego dostrajania, co umożliwia firmom wydajniejsze korzystanie z funkcji LLM.

Rozwiązanie RAG umożliwia firmom osiągnięcie dostosowanych rozwiązań przy zachowaniu istotności danych i optymalizacji kosztów. Przyjmując rag, firmy mogą używać możliwości rozumowania llMs, wykorzystując swoje istniejące modele do przetwarzania i generowania odpowiedzi na podstawie nowych danych. Program RAG ułatwia okresowe aktualizacje danych bez konieczności precyzyjnego dostrajania, usprawniając integrację oprogramowania LLMs z firmami.

  • Podaj dane uzupełniające jako dyrektywę lub monit do usługi LLM
  • Dodawanie składnika sprawdzania faktów w istniejących modelach
  • Trenowanie modelu na aktualnych danych bez ponoszenia dodatkowego czasu i kosztów związanych z dostrajaniem
  • Trenowanie na danych specyficznych dla firmy

Omówienie techniczne korzystania z programu RAG w przypadku dużych modeli językowych (LLMs)

W przypadku pobierania informacji rag jest podejściem, które umożliwia wykorzystanie możliwości llMs z własnymi danymi. Włączenie funkcji LLM w celu uzyskania dostępu do danych niestandardowych obejmuje następujące kroki. Najpierw podziel duże dane na elementy, którymi można zarządzać. Po drugie przekonwertuj fragmenty na format możliwy do wyszukania. Po trzecie, zapisz przekonwertowane dane w lokalizacji, która umożliwia wydajny dostęp. Ponadto przechowuj odpowiednie metadane dla cytatów lub odwołań, gdy usługa LLM udostępnia odpowiedzi.

Zrzut ekranu przedstawiający diagram techniczny przeglądu kroków szalejących w usłudze LLM.

Przyjrzyjmy się bardziej szczegółowo diagramowi.

  • Dane źródłowe: te dane istnieją w pliku lub folderze na maszynie, pliku w magazynie w chmurze, zasobie danych usługi Azure Machine Learning, repozytorium Git lub bazie danych SQL.

  • Fragmentowanie danych: konwertowanie danych w źródle na zwykły tekst. Na przykład dokumenty programu Word lub pliki PDF muszą być otwierane i konwertowane na tekst. Następnie podziel tekst na mniejsze elementy.

  • Konwertowanie tekstu na wektory: nazywane osadzaniem. Wektory to liczbowe reprezentacje pojęć konwertowanych na sekwencje liczbowe, co ułatwia komputerom zrozumienie relacji między tymi pojęciami.

  • Linki między danymi źródłowymi i osadzaniem: przechowuj te informacje jako metadane we utworzonych fragmentach. Użyj go, aby ułatwić maszynom LLM generowanie cytatów podczas generowania odpowiedzi.

RAG z usługą Azure Machine Learning (wersja zapoznawcza)

Usługa Azure Machine Learning umożliwia RAG poprzez integrację z Azure OpenAI w modelach Microsoft Foundry dla dużych modeli językowych i wektoryzacji. Obsługuje ona Faiss i Azure AI Search (dawniej Cognitive Search) jako sklepy wektorowe. Obsługuje również oferty, narzędzia i struktury typu open source, takie jak LangChain na potrzeby fragmentowania danych.

Aby zaimplementować rag, musisz spełnić kilka kluczowych wymagań. Najpierw sformatuj dane w sposób umożliwiający efektywne wyszukiwanie przed wysłaniem ich do usługi LLM, co ostatecznie zmniejsza zużycie tokenów. Aby zapewnić skuteczność programu RAG, regularnie aktualizuj dane w regularnych okresach. Ponadto możliwość oceny danych wyjściowych z usługi LLM przy użyciu danych umożliwia mierzenie skuteczności technik. Usługa Azure Machine Learning nie tylko pozwala łatwo rozpocząć pracę na tych aspektach, ale także umożliwia ulepszanie i produkcję rag. Oferty usługi Azure Machine Learning:

  • Przykłady uruchamiania scenariuszy Q&A opartych na technologii RAG.
  • Środowisko interfejsu użytkownika oparte na kreatorze w celu tworzenia danych i zarządzania nimi oraz dołączania ich do przepływów monitów.
  • Możliwość mierzenia i ulepszania przepływów pracy RAG, w tym generowania danych testowych, automatycznego tworzenia monitów i wizualizowania metryk oceny monitów.
  • Zaawansowane scenariusze z większą kontrolą przy użyciu nowych wbudowanych składników RAG do tworzenia niestandardowych potoków w notesach.
  • Środowisko kodu, które umożliwia wykorzystanie danych utworzonych za pomocą ofert typu open source, takich jak LangChain.
  • Bezproblemowa integracja przepływów pracy RAG z przepływami pracy metodyki MLOps przy użyciu potoków i zadań.

Podsumowanie

Usługa Azure Machine Learning umożliwia uwzględnienie rozwiązania RAG w rozwiązaniu sztucznej inteligencji przy użyciu usługi Azure Machine Learning Studio lub pisanie kodu za pomocą potoków usługi Azure Machine Learning. Oferuje kilka dodatków o wartości, takich jak możliwość mierzenia i ulepszania przepływów pracy RAG, generowania danych testowych, automatycznego tworzenia monitów i wizualizacji metryk oceny monitu. Umożliwia to integrację przepływów pracy RAG z metodyką MLOps poprzez wykorzystanie potoków. Możesz również używać swoich danych z ofertami typu open source, takimi jak LangChain.

Następne kroki

Używanie magazynów wektorów z usługą Azure Machine Learning (wersja zapoznawcza)

Jak utworzyć indeks wektorów w przepływie monitów usługi Azure Machine Learning (wersja zapoznawcza)