Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Narzędzie dużego modelu językowego (LLM) w przepływie monitów umożliwia korzystanie z powszechnie używanych modeli językowych, takich jak OpenAI, Azure OpenAI w modelach microsoft Foundry lub dowolnego modelu językowego obsługiwanego przez interfejs API wnioskowania modelu azure AI na potrzeby przetwarzania języka naturalnego.
Przepływ monitów udostępnia kilka dużych interfejsów API modelu językowego:
- Uzupełnianie: modele uzupełniania interfejsu OpenAI generują tekst na podstawie podanych monitów.
- Czat: modele czatów openAI i modele czatów usługi Azure AI ułatwiają interaktywne rozmowy z danymi wejściowymi i odpowiedziami opartymi na tekście.
Interfejs API osadzania nie jest dostępny w narzędziu LLM. Użyj narzędzia osadzania , aby wygenerować osadzanie za pomocą interfejsu OpenAI lub usługi Azure OpenAI.
Note
Narzędzie LLM w przepływie monitów nie obsługuje modeli rozumowania (takich jak OpenAI o1 lub o3). Z powodu integracji modelu użyj narzędzia języka Python, aby bezpośrednio wywołać interfejsy API modelu. Aby uzyskać więcej informacji, zobacz Wywoływanie modelu rozumowania z poziomu narzędzia języka Python.
Prerequisites
Tworzenie zasobów openAI:
OpenAI:
- Utwórz konto w witrynie internetowej OpenAI.
- Zaloguj się i znajdź osobisty klucz interfejsu API.
Azure OpenAI:
- Utwórz zasoby usługi Azure OpenAI, postępując zgodnie z tymi instrukcjami. Używaj tylko znaków ASCII w nazwach grup zasobów usługi Azure OpenAI. Przepływ monitu nie obsługuje znaków innych niż ASCII w nazwach grup zasobów.
Modele wdrożone we standardowych wdrożeniach:
- Utwórz punkt końcowy z modelem z katalogu i wdróż go przy użyciu standardowego wdrożenia.
- Aby używać modeli wdrożonych w standardowym wdrożeniu obsługiwanym przez interfejs API wnioskowania modelu sztucznej inteligencji platformy Azure, takich jak Mistral, Cohere, Meta Llama lub rodzina modeli firmy Microsoft (między innymi), utwórz połączenie w projekcie z punktem końcowym.
Connections
Skonfiguruj połączenia z aprowizowaną zasobami w przepływie monitu.
| Typ | Name | klucz interfejsu API | Typ API | wersja API |
|---|---|---|---|---|
| OpenAI | Required | Required | - | - |
| Azure OpenAI — klucz interfejsu API | Required | Required | Required | Required |
| Azure OpenAI — identyfikator entra firmy Microsoft | Required | - | - | Required |
| Model bezserwerowy | Required | Required | - | - |
Tip
- Aby użyć typu uwierzytelniania identyfikatora entra firmy Microsoft dla połączenia azure OpenAI, przypisz
Cognitive Services OpenAI Userrolę lubCognitive Services OpenAI Contributordo tożsamości zarządzanej przypisanej przez użytkownika. - Dowiedz się więcej o sposobie określania sposobu używania tożsamości użytkownika do przesyłania przebiegu przepływu.
- Dowiedz się więcej o sposobie konfigurowania usługi Azure OpenAI przy użyciu tożsamości zarządzanych.
Inputs
W poniższych sekcjach przedstawiono różne dane wejściowe.
Uzupełnianie tekstu
| Name | Typ | Description | Required |
|---|---|---|---|
| monit | ciąg | Monit tekstowy dla modelu językowego. | Yes |
| model, deployment_name | ciąg | Model językowy do użycia. | Yes |
| max_tokens | liczba całkowita | Maksymalna liczba tokenów do wygenerowania w zakończeniu. Wartość domyślna to 16. | No |
| temperature | float | Losowość wygenerowanego tekstu. Wartość domyślna to 1. | No |
| stop | list | Zatrzymywanie sekwencji wygenerowanego tekstu. Wartość domyślna to null. | No |
| suffix | ciąg | Tekst dołączony na końcu ukończenia. | No |
| top_p | float | Prawdopodobieństwo użycia najlepszego wyboru z wygenerowanych tokenów. Wartość domyślna to 1. | No |
| logprobs | liczba całkowita | Liczba prawdopodobieństwa dziennika do wygenerowania. Wartość domyślna to null. | No |
| echo | boolean | Wartość wskazująca, czy należy powtórzyć monit w odpowiedzi. Wartość domyślna to „fałsz”. | No |
| presence_penalty | float | Wartość, która kontroluje zachowanie modelu na potrzeby powtarzania fraz. Wartość domyślna to 0. | No |
| frequency_penalty | float | Wartość, która kontroluje zachowanie modelu w celu generowania rzadkich fraz. Wartość domyślna to 0. | No |
| best_of | liczba całkowita | Liczba najlepszych uzupełnień do wygenerowania. Wartość domyślna to 1. | No |
| logit_bias | dictionary | Logit stronniczy dla modelu językowego. Wartość domyślna to pusty słownik. | No |
Chat
| Name | Typ | Description | Required |
|---|---|---|---|
| monit | ciąg | Monit tekstowy używany przez model językowy na potrzeby odpowiedzi. | Yes |
| model, deployment_name | ciąg | Model językowy do użycia. Ten parametr nie jest wymagany, jeśli model jest wdrożony w standardowym wdrożeniu. | Yes* |
| max_tokens | liczba całkowita | Maksymalna liczba tokenów do wygenerowania w odpowiedzi. Wartość domyślna to inf. | No |
| temperature | float | Losowość wygenerowanego tekstu. Wartość domyślna to 1. | No |
| stop | list | Zatrzymywanie sekwencji wygenerowanego tekstu. Wartość domyślna to null. | No |
| top_p | float | Prawdopodobieństwo użycia najlepszego wyboru z wygenerowanych tokenów. Wartość domyślna to 1. | No |
| presence_penalty | float | Wartość, która kontroluje zachowanie modelu na potrzeby powtarzania fraz. Wartość domyślna to 0. | No |
| frequency_penalty | float | Wartość, która kontroluje zachowanie modelu w celu generowania rzadkich fraz. Wartość domyślna to 0. | No |
| logit_bias | dictionary | Logit stronniczy dla modelu językowego. Wartość domyślna to pusty słownik. | No |
Outputs
| API | Typ zwracany | Description |
|---|---|---|
| Completion | ciąg | Tekst jednego przewidywanego ukończenia |
| Chat | ciąg | Tekst jednej odpowiedzi konwersacji |
Korzystanie z narzędzia LLM
- Skonfiguruj i wybierz połączenia z zasobami openAI lub standardowym wdrożeniem.
- Skonfiguruj interfejs API modelu dużego języka i jego parametry.
- Przygotuj monit, aby uzyskać wskazówki.