Wprowadzenie

Ukończone

Prawdziwa siła dużych modeli językowych (LLMs) leży w ich aplikacji. Niezależnie od tego, czy chcesz używać LLMs do klasyfikowania stron internetowych na kategorie, czy do tworzenia czatbota na podstawie danych. Aby wykorzystać możliwości dostępnych modułów LLM, należy utworzyć aplikację, która łączy źródła danych z modułami LLM i generuje żądane dane wyjściowe.

Aby opracowywać, testować, dostrajać i wdrażać aplikacje LLM, możesz użyć przepływu monitów, dostępnego w usłudze Azure Machine Learning Studio i portalu Microsoft Foundry.

Uwaga / Notatka

Ten moduł koncentruje się na zrozumieniu i eksplorowaniu przepływu monitów za pośrednictwem rozwiązania Microsoft Foundry. Należy jednak pamiętać, że zawartość ma zastosowanie do środowiska przepływu monitów zarówno w usłudze Azure Machine Learning, jak i w rozwiązaniu Microsoft Foundry.

Przepływ monitu przyjmuje monit jako dane wejściowe, które w kontekście usługi LLM odnosi się do zapytania dostarczonego do aplikacji LLM w celu wygenerowania odpowiedzi. Jest to tekst lub zestaw instrukcji podanych aplikacji LLM, monitujący o wygenerowanie danych wyjściowych lub wykonanie określonego zadania.

Na przykład, jeśli chcesz użyć modelu do generowania tekstu, zaczepka może być zdaniem lub akapitem, który inicjuje proces generowania. W kontekście modelu odpowiedzi na pytania monit może być zapytaniem z prośbą o informacje dotyczące określonego tematu. Skuteczność monitu często zależy od tego, jak dobrze przekazuje intencję użytkownika i żądany wynik.

Przepływ monitu umożliwia tworzenie przepływów, które odnoszą się do sekwencji akcji lub kroków, które są podejmowane w celu osiągnięcia określonego zadania lub funkcjonalności. Przepływ reprezentuje ogólny proces lub potok, który obejmuje interakcję z usługą LLM w celu rozwiązania określonego przypadku użycia. Proces obejmuje całą podróż od przyjęcia danych wejściowych do generowania danych wyjściowych lub wykonania pożądanej czynności.