Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel wird erläutert, wie Sie die Modellversion und die Einstellungen im Prompt Builder ändern. Die Modellversion und die Einstellungen können sich auf die Leistung und das Verhalten des generativen KI-Modells auswirken.
Modellauswahl
Sie können das Modell ändern, indem Sie oben im Prompt-Builder Modell auswählen. Im Dropdown-Menü können Sie aus den generativen KI-Modellen auswählen, die Antworten auf Ihre benutzerdefinierte Eingabeaufforderung generieren.
Wichtig
Im November 2025 haben wir das o3-Modell zum GPT-5-Reasoning-Modell migriert. Prompts, die für das o3-Modell ausgeführt wurden, wurden automatisch auf das GPT-5-Reasoning-Modell übertragen, ohne dass eine Aktion von Ihnen erforderlich ist. Sie können vorübergehend zum o3-Modell zurückkehren, indem Sie eine Supportanfrage über Prompts stellen. Diese Ausnahme gilt bis zum 17. Dezember 2025, wonach das o3-Modell dauerhaft eingestellt wird.
Bei der Verwendung von Prompts in Power Apps oder Power Automate wird Promptgenerator-Guthaben in Anspruch genommen, während die Verwendung von Prompts in Microsoft Copilot Studio Copilot-Guthaben verbraucht. Weitere Informationen finden Sie unter Lizenzierung und Promptgenerator-Guthaben.
Überblick
Die folgende Tabelle beschreibt die verschiedenen verfügbaren Modelle.
| GPT-Modell | Lizenzierung | Funktionalitäten | Kateg. |
|---|---|---|---|
| GPT-4.1 mini (Standardmodell) |
Basistarif | Trainiert mit Daten bis Juni 2024. Geben Sie bis zu 128.000 Token ein. | Mini |
| GPT-4.1 | Standardtarif | Trainiert mit Daten bis Juni 2024. Kontext erlaubt bis zu 128.000 Token. | Allgemein |
| GPT-5-Chat | Standardtarif | Trainiert mit Daten bis September 2024. Kontext erlaubt bis zu 128.000 Token. | Allgemein |
| GPT-5-Reasoning | Premiumtarif | Trainiert mit Daten bis September 2024. Kontext erlaubt bis zu 400.000 Token. | Tief |
| GPT-5.2 Chat (Experimentell) | Standardtarif | Kontext erlaubt bis zu 128.000 Token. | Allgemein |
| GPT-5.2-Schlussfolgerung (Experimentelle) | Premiumtarif | Trainiert mit Daten bis Oktober 2024. Kontext erlaubt bis zu 400.000 Token. | Tief |
| Claude Sonett 4.5 (Experimentell) | Standardtarif | Externes Modell von Anthropic. Der Kontext erlaubt bis zu 200.000 Token. | Allgemein |
| Claude Opus 4.1 (Experimentell) | Premiumtarif | Externes Modell von Anthropic. Der Kontext erlaubt bis zu 200.000 Token. | Tief |
GPT-4o mini und GPT-4o werden weiterhin in US Gov-Regionen verwendet. Diese Modelle folgen den Lizenzierungsregeln und bieten Funktionen, die mit GPT-4.1 mini and GPT-4.1 vergleichbar sind.
Die Verfügbarkeit der Modelle variiert je nach Region. Erfahren Sie mehr über die Modellverfügbarkeit in Modellverfügbarkeit nach Region.
Anthropische Modelle werden außerhalb von Microsoft gehostet und unterliegen anthropopischen Bedingungen und Datenverarbeitung. Weitere Informationen über externe Anthropic-Modelle finden Sie unter Externes Modell als primäres KI-Modell auswählen.
Lizenzierung
In Agents, Flows oder Apps, die von Prompts verwendet werden, wird Copilot-Guthaben verbraucht, unabhängig von ihrer Veröffentlichungsphase. Weitere Informationen finden Sie unter Copilot-Guthabenverwaltung.
Wenn du AI-Builder-Credits hast, werden sie prioritär verbraucht, wenn Prompts in Power Apps und Power Automate verwendet werden. Sie werden nicht verbraucht, wenn Prompts in Copilot Studio verwendet werden. Weitere Informationen finden Sie unter AI Builder: Übersicht über die Lizenzierung.
Veröffentlichungsphasen
Modelle weisen unterschiedliche Phasen der Veröffentlichung auf. Sie können neue, hochmoderne Modelle in der Prüfung und Modelle in der Vorschauversion ausprobieren oder ein zuverlässiges, gründlich getestetes, allgemein verfügbares Modell wählen.
| Tag | Beschreibung des Dataflows |
|---|---|
| Experimentell | Wird zum Experimentieren verwendet; nicht für den Produktionseinsatz empfohlen. Vorbehaltlich von Vorschauversionsbedingungen; Einschränkungen hinsichtlich Verfügbarkeit und Qualität möglich. |
| Vorschauversion | Wird letztlich zu einem allgemein verfügbaren Modell; derzeit jedoch nicht für den Produktionseinsatz empfohlen. Vorbehaltlich von Vorschauversionsbedingungen; Einschränkungen hinsichtlich Verfügbarkeit und Qualität möglich. |
| Kein Tag | Allgemein verfügbar. Sie können dieses Modell für den skalierten und produktiven Einsatz verwenden. In den meisten Fällen haben allgemein verfügbare Modelle keine Einschränkungen hinsichtlich Verfügbarkeit und Qualität, bei einigen gibt es jedoch möglicherweise trotzdem noch einige Einschränkungen, z. B. bezüglich der regionalen Verfügbarkeit. Wichtig: Anthropic Claude-Modelle befinden sich in der Prüfungsphase, obwohl sie kein Tag anzeigen. |
| Standard | Das Standardmodell für alle Agents und in der Regel das am besten geeignete allgemein verfügbare Modell. Das Standardmodell wird regelmäßig aktualisiert, wenn neue, fähigere Modelle allgemein verfügbar werden. Agents verwenden auch das Standardmodell als Fallback, wenn ein ausgewähltes Modell deaktiviert wird oder nicht verfügbar ist. |
Modelle in der Prüfung und Modelle in der Vorschauversion können Schwankungen in der Leistung, der Antwortqualität, der Latenz oder dem Nachrichtenverbrauch aufweisen und möglicherweise eine Zeitüberschreitung verursachen oder nicht verfügbar sein. Sie unterliegen den Bedingungen für Vorschauversionen.
Kategorisierung
In der folgenden Tabelle sind die unterschiedlichen Modellkategorien beschrieben.
| Mini | Allgemein | Tief | |
|---|---|---|---|
| Leistung | Gut für die meisten Aufgaben | Überlegenheit bei komplexen Aufgaben | Trainiert für Aufgaben zur Problemlösung |
| Geschwindigkeit | Schnellere Verarbeitung | Kann aufgrund der Komplexität langsamer sein | Langsamer, da er „Reasoning“ durchführt, bevor er antwortet |
| Anwendungsfälle | Zusammenfassung, Informationsaufgaben, Bild- und Dokumentenverarbeitung | Bild- und Dokumentverarbeitung, erweiterte Aufgaben zum Erstellen von Inhalten | Datenanalyse und Reasoning-Aufgaben, Bild- und Dokumentverarbeitung |
Wenn Sie eine kostengünstige Lösung für mittelkomplexe Aufgaben benötigen, über begrenzte Rechenressourcen verfügen oder eine schnellere Verarbeitung benötigen, wählen Sie Mini-Modelle Es ist ideal für Projekte mit Budgetbeschränkungen und Anwendungen wie Kundensupport oder effiziente Codeanalyse.
Wenn Sie es mit hochkomplexen, multimodalen Aufgaben zu tun haben, die eine überragende Leistung und detaillierte Analyse erfordern, wählen Sie Modelle vom Typ Allgemein. Es ist die bessere Wahl für Großprojekte, bei denen Genauigkeit und erweiterte Funktionen entscheidend sind. Ein anderes Szenario, in dem es eine bessere Wahl ist, liegt dann vor, wenn Sie über das Budget und die Rechenressourcen verfügen, um es zu unterstützen. Allgemeine Modelle sind auch für langfristige Projekte vorzuziehen, die im Laufe der Zeit an Komplexität zunehmen könnten.
Für Projekte, die erweiterte Argumentationsfähigkeiten erfordern, eignen sich Deep-Modelle hervorragend. Es eignet sich für Szenarien, die eine ausgefeilte Problemlösung und kritisches Denken erfordern. Deep-Modelle eignen sich perfekt für Umgebungen, in denen nuanciertes Reasoning, komplexe Entscheidungsfindung und detaillierte Analysen wichtig sind.
Wählen Sie zwischen den Modellen basierend auf regionaler Verfügbarkeit, Funktionen, Anwendungsfällen und Kosten aus. Erfahren Sie mehr unter Modellverfügbarkeit nach Region und Preisvergleichstabelle.
Modellverfügbarkeit nach Region
Die folgenden Abschnitte beschreiben die öffentliche und US-staatliche Verfügbarkeit von Modellen nach Regionen.
Öffentliche Verfügbarkeit
In der folgenden Tabelle bedeutet (GA), (Vorschau) oder (Experimentell), dass die Funktion zwar verfügbar ist, aber einen Azure OpenAI-Dienst in einer anderen Region verwendet. Weitere Informationen finden Sie unter Datenverschiebung zwischen Regionen aktivieren.
| Merkmal | Asia | Australien | Canada | Europa | Frankreich | Deutschland | Indien | Japan | Norwegen | Singapur | Südafrika | Südamerika | Korea | Schweden | Schweiz | Vereinigte Arabische Emirate | Vereinigtes Königreich | USA |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| GPT-4.1 Mini | GA | GA | (GA) | (GA) | (GA) | (GA) | GA | (GA) | (GA) | GA | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | GA | GA |
| GPT-4.1 | GA | GA | (GA) | (GA) | (GA) | (GA) | GA | (GA) | (GA) | GA | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | GA | GA |
| o3 | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | GA |
| GPT-5-Chat | (GA) | (GA) | (GA) | GA | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | GA |
| GPT-5-Reasoning | (GA) | (GA) | (GA) | GA | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | (GA) | GA |
| GPT-5.2 Chat | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | Experimentell |
| GPT-5.2-Argumentation | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | Experimentell |
Verfügbarkeit durch US-Regierung
| Merkmal | Government Community Cloud (GCC) | Government Community Cloud – Hoch (GCC High) | Verteidigungsministerium (DoD, Department of Defense) |
|---|---|---|---|
| GPT-4o Mini | GA | GA | - |
| GPT-4o | GA | GA | - |
| GPT-4o verwendet Bilder und Dokumente als Eingabe | - | - | - |
Modellaktualisierung
| Modell | Status | Deaktivierungstermin | Ersatz |
|---|---|---|---|
| GPT-4.1 Mini | Allgemein verfügbar | Noch kein Datum | Nicht zutreffend |
| GPT-4.1 | Allgemein verfügbar | Noch kein Datum | Nicht zutreffend |
| GPT-5-Chat | Allgemein verfügbar | Noch kein Datum | Nicht zutreffend |
| GPT-5-Reasoning | Allgemein verfügbar | Noch kein Datum | Nicht zutreffend |
| GPT-5.2 Chat | Experimentell | Noch kein Datum | Nicht zutreffend |
| GPT-5.2-Argumentation | Experimentell | Noch kein Datum | Nicht zutreffend |
| Claude Sonnet 4.5 | Experimentell | Noch kein Datum | Nicht zutreffend |
| Claude Opus 4.1 | Experimentell | Dezember 2025 | Claude Opus 4.5 |
| Claude Opus 4.5 | Ausstehende Verfügbarkeit | Noch kein Datum | Nicht zutreffend |
| o3 | Zurückgezogen | 4. Dezember 2025 | GPT-5-Reasoning |
| GPT-4o Mini | Zurückgezogen | Juli 2025 | GPT-4.1 Mini |
| GPT-4o | Zurückgezogen | Juli 2025 | GPT-4.1 |
| O1 | Zurückgezogen | Juli 2025 | o3 |
Modelleinstellungen
Du kannst auf das Einstellungsfeld zugreifen, indem du die drei Punkte auswählst (...). >Einstellungen oben im Prompt-Builder. Sie können die folgenden Einstellungen ändern:
- Temperatur: Niedrigere Temperaturen führen zu vorhersagbaren Ergebnissen. Höhere Temperaturen ermöglichen vielfältigere oder kreativere Antworten.
- Datensatz abrufen: Anzahl der Datensätze, die für Ihre Wissensquellen abgerufen wurden.
- Links in die Antwort einfügen: Wenn diese Option ausgewählt ist, enthält die Antwort Linkzitate für die abgerufenen Datensätze.
Temperatur
Mit dem Schieberegler können Sie die Temperatur des generativen KI-Modells auswählen. Variiert zwischen 0 und 1. Dieser Wert gibt dem GenAI-Modell vor, wie viel Kreativität (1) im Vergleich zur deterministischen Antwort (0) es liefern soll.
Die Temperatur ist ein Parameter, der die Zufälligkeit der vom KI-Modell generierten Ausgabe steuert. Eine niedrigere Temperatur führt zu vorhersehbareren und konservativeren Ergebnissen. Im Vergleich dazu ermöglicht eine höhere Temperatur mehr Kreativität und Vielfalt bei den Reaktionen. Auf diese Weise lässt sich das Gleichgewicht zwischen Zufälligkeit und Determinismus in der Ausgabe des Modells feinabstimmen.
Standardmäßig ist die Temperatur 0, wie in zuvor erstellten Eingabeaufforderungen.
| Temperatur | Funktionalität | Verwenden in |
|---|---|---|
| 0 | Vorhersehbarere und konservativere Ergebnisse. Die Antworten sind konsistenter. |
Eingabeaufforderungen, die eine hohe Genauigkeit und weniger Variabilität erfordern. |
| 1 | Mehr Kreativität und Vielfalt in den Antworten. Vielfältigere und manchmal innovativere Antworten. |
Prompts, die sofort einsatzbereite neue Inhalte erstellen. |
Das Anpassen der Temperatur kann die Ausgabe des Modells beeinflussen, garantiert aber kein bestimmtes Ergebnis. Die Antworten der KI sind von Natur aus probabilistisch und können auch bei derselben Temperatureinstellung variieren.
Anmerkung
Die Temperatureinstellung ist für das GPT-5-Reasoning-Modell nicht verfügbar. Aus diesem Grund ist der Schieberegler deaktiviert, wenn Sie das GPT-5-Reasoning-Modell auswählen.