Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Mit dem Tool für große Sprachmodelle (LLM) im Eingabeaufforderungsfluss können Sie häufig verwendete große Sprachmodelle wie OpenAI, Azure OpenAI in Microsoft Foundry Models oder jedes von der Azure AI-Modell-Ableitungs-API unterstützte Sprachmodell für die Verarbeitung natürlicher Sprachen verwenden.
Der Eingabeaufforderungsfluss stellt mehrere apIs für große Sprachmodelle bereit:
- Abschluss: Die Abschlussmodelle von OpenAI generieren Text basierend auf den bereitgestellten Eingabeaufforderungen.
- Chat: Die Chatmodelle von OpenAI und die Azure AI-Chatmodelle erleichtern interaktive Unterhaltungen mit textbasierten Eingaben und Antworten.
Die Einbettungs-API ist im LLM-Tool nicht verfügbar. Verwenden Sie das Einbettungstool , um Einbettungen mit OpenAI oder Azure OpenAI zu generieren.
Note
Das LLM-Tool im Eingabeaufforderungsfluss unterstützt keine Begründungsmodelle (z. B. OpenAI o1 oder o3). Verwenden Sie aus Gründen der Modellintegration das Python-Tool, um die Modell-APIs direkt aufzurufen. Weitere Informationen finden Sie unter Aufrufen eines Grundmodells aus dem Python-Tool.
Prerequisites
Erstellen Sie die OpenAI-Ressourcen:
OpenAI:
- Registrieren Sie sich für ein Konto auf der OpenAI-Website.
- Melden Sie sich an, und suchen Sie Ihren persönlichen API-Schlüssel.
Azure OpenAI:
- Erstellen Sie Azure OpenAI-Ressourcen, indem Sie diese Anweisungen befolgen. Verwenden Sie nur ASCII-Zeichen in Azure OpenAI-Ressourcengruppennamen. Der Aufforderungsfluss unterstützt keine Nicht-ASCII-Zeichen in Ressourcengruppennamen.
In Standardbereitstellungen bereitgestellte Modelle:
- Erstellen Sie einen Endpunkt mit dem Modell aus dem gewünschten Katalog, und stellen Sie ihn mit einer Standardbereitstellung bereit.
- Um Modelle zu verwenden, die für die standardmäßige Bereitstellung bereitgestellt werden, die von der Azure AI-Modellference-API unterstützt wird, z. B. Mistral, Cohere, Meta Llama oder Microsoft Family of Models (u. a.), erstellen Sie eine Verbindung in Ihrem Projekt zu Ihrem Endpunkt.
Connections
Richten Sie Verbindungen zu bereitgestellten Ressourcen im Prompt Flow ein.
| Type | Name | API key | API-Typ | API-Version |
|---|---|---|---|---|
| OpenAI | Required | Required | - | - |
| Azure OpenAI – API-Schlüssel | Required | Required | Required | Required |
| Azure OpenAI – Microsoft Entra ID | Required | - | - | Required |
| Serverloses Modell | Required | Required | - | - |
Tip
- Um den Microsoft Entra ID-Authentifizierungstyp für die Azure OpenAI-Verbindung zu verwenden, weisen Sie dem Benutzer oder der vom Benutzer zugewiesenen verwalteten Identität entweder die Rolle oder
Cognitive Services OpenAI UserdieCognitive Services OpenAI ContributorRolle zu. - Erfahren Sie mehr darüber, wie Sie angeben, wie Sie die Benutzeridentität zum Übermitteln der Flowausführung verwenden.
- Erfahren Sie mehr darüber, wie Sie Azure OpenAI mit verwalteten Identitäten konfigurieren.
Inputs
In den folgenden Abschnitten werden verschiedene Eingaben angezeigt.
Textvervollständigung
| Name | Type | Description | Required |
|---|---|---|---|
| prompt | string | Text-Prompt für das Sprachmodell. | Yes |
| Modell, deployment_name | string | Zu verwendende Sprachmodell. | Yes |
| max_tokens | integer | Maximale Anzahl von Token, die im Abschluss generiert werden sollen. Der Standardwert ist 16. | No |
| temperature | float | Die Zufälligkeit des generierten Texts Der Standardwert ist 1. | No |
| stop | list | Die Stoppsequenz für den generierten Text Der Standardwert lautet null. | No |
| suffix | string | Am Ende des Abschlusses angefügter Text. | No |
| top_p | float | Die Wahrscheinlichkeit, dass das erste Ergebnis aus den generierten Token verwendet wird Der Standardwert ist 1. | No |
| logprobs | integer | Anzahl der zu generierenden Protokollwahrscheinlichkeiten. Der Standardwert lautet null. | No |
| echo | boolean | Wert, der angibt, ob die Eingabeaufforderung in der Antwort zurückgegeben werden soll. Der Standardwert ist "false". | No |
| presence_penalty | float | Wert, der das Verhalten des Modells für wiederholte Ausdrücke steuert. Standard ist "0". | No |
| frequency_penalty | float | Wert, der das Verhalten des Modells zum Generieren seltener Ausdrücke steuert. Standard ist "0". | No |
| best_of | integer | Die Anzahl der besten Zugänge, die generiert werden sollen. Der Standardwert ist 1. | No |
| logit_bias | dictionary | Logit-Verzerrung für das Sprachmodell. Der Standardwert ist ein leeres Wörterbuch. | No |
Chat
| Name | Type | Description | Required |
|---|---|---|---|
| prompt | string | Textaufforderung, die vom Sprachmodell für eine Antwort verwendet wird. | Yes |
| Modell, deployment_name | string | Zu verwendende Sprachmodell. Dieser Parameter ist nicht erforderlich, wenn das Modell in einer Standardbereitstellung bereitgestellt wird. | Yes* |
| max_tokens | integer | Die maximale Anzahl von Token, die in der Antwort generiert werden. Der Standardwert ist „inf“. | No |
| temperature | float | Die Zufälligkeit des generierten Texts Der Standardwert ist 1. | No |
| stop | list | Die Stoppsequenz für den generierten Text Der Standardwert lautet null. | No |
| top_p | float | Die Wahrscheinlichkeit, dass das erste Ergebnis aus den generierten Token verwendet wird Der Standardwert ist 1. | No |
| presence_penalty | float | Wert, der das Verhalten des Modells für wiederholte Ausdrücke steuert. Standard ist "0". | No |
| frequency_penalty | float | Wert, der das Verhalten des Modells zum Generieren seltener Ausdrücke steuert. Standard ist "0". | No |
| logit_bias | dictionary | Logit-Verzerrung für das Sprachmodell. Der Standardwert ist ein leeres Wörterbuch. | No |
Outputs
| API | Rückgabetyp | Description |
|---|---|---|
| Completion | string | Text eines vorhergesagten Abschlusses |
| Chat | string | Text einer Antwort einer Unterhaltung |
Verwenden des LLM-Tools
- Richten Sie die Verbindungen mit OpenAI-Ressourcen oder einer Standardbereitstellung ein, und wählen Sie sie aus.
- Konfigurieren Sie die API für große Sprachenmodelle und die zugehörigen Parameter.
- Bereiten Sie die Aufforderung mit Anleitungen vor.