Freigeben über


Modellversion und Einstellungen ändern

In diesem Artikel wird erläutert, wie Sie die Modellversion und die Einstellungen im Prompt Builder ändern. Die Modellversion und die Einstellungen können sich auf die Leistung und das Verhalten des generativen KI-Modells auswirken.

Modellauswahl

Sie können das Modell ändern, indem Sie oben im Prompt-Builder Modell auswählen. Im Dropdown-Menü können Sie aus den generativen KI-Modellen auswählen, die Antworten auf Ihre benutzerdefinierte Eingabeaufforderung generieren.

Wichtig

Im November 2025 haben wir das o3-Modell zum GPT-5-Reasoning-Modell migriert. Prompts, die für das o3-Modell ausgeführt wurden, wurden automatisch auf das GPT-5-Reasoning-Modell übertragen, ohne dass eine Aktion von Ihnen erforderlich ist. Sie können vorübergehend zum o3-Modell zurückkehren, indem Sie eine Supportanfrage über Prompts stellen. Diese Ausnahme gilt bis zum 17. Dezember 2025, wonach das o3-Modell dauerhaft eingestellt wird.

Bei der Verwendung von Prompts in Power Apps oder Power Automate wird Promptgenerator-Guthaben in Anspruch genommen, während die Verwendung von Prompts in Microsoft Copilot Studio Copilot-Guthaben verbraucht. Weitere Informationen finden Sie unter Lizenzierung und Promptgenerator-Guthaben.

Überblick

Die folgende Tabelle beschreibt die verschiedenen verfügbaren Modelle.

GPT-Modell Lizenzierung Funktionalitäten Kateg.
GPT-4.1 mini
(Standardmodell)
Basistarif Trainiert mit Daten bis Juni 2024. Geben Sie bis zu 128.000 Token ein. Mini
GPT-4.1 Standardtarif Trainiert mit Daten bis Juni 2024. Kontext erlaubt bis zu 128.000 Token. Allgemein
GPT-5-Chat Standardtarif Trainiert mit Daten bis September 2024. Kontext erlaubt bis zu 128.000 Token. Allgemein
GPT-5-Reasoning Premiumtarif Trainiert mit Daten bis September 2024. Kontext erlaubt bis zu 400.000 Token. Tief
GPT-5.2 Chat (Experimentell) Standardtarif Kontext erlaubt bis zu 128.000 Token. Allgemein
GPT-5.2-Schlussfolgerung (Experimentelle) Premiumtarif Trainiert mit Daten bis Oktober 2024. Kontext erlaubt bis zu 400.000 Token. Tief
Claude Sonett 4.5 (Experimentell) Standardtarif Externes Modell von Anthropic. Der Kontext erlaubt bis zu 200.000 Token. Allgemein
Claude Opus 4.1 (Experimentell) Premiumtarif Externes Modell von Anthropic. Der Kontext erlaubt bis zu 200.000 Token. Tief

GPT-4o mini und GPT-4o werden weiterhin in US Gov-Regionen verwendet. Diese Modelle folgen den Lizenzierungsregeln und bieten Funktionen, die mit GPT-4.1 mini and GPT-4.1 vergleichbar sind.

Die Verfügbarkeit der Modelle variiert je nach Region. Erfahren Sie mehr über die Modellverfügbarkeit in Modellverfügbarkeit nach Region.

Anthropische Modelle werden außerhalb von Microsoft gehostet und unterliegen anthropopischen Bedingungen und Datenverarbeitung. Weitere Informationen über externe Anthropic-Modelle finden Sie unter Externes Modell als primäres KI-Modell auswählen.

Lizenzierung

In Agents, Flows oder Apps, die von Prompts verwendet werden, wird Copilot-Guthaben verbraucht, unabhängig von ihrer Veröffentlichungsphase. Weitere Informationen finden Sie unter Copilot-Guthabenverwaltung.

Wenn du AI-Builder-Credits hast, werden sie prioritär verbraucht, wenn Prompts in Power Apps und Power Automate verwendet werden. Sie werden nicht verbraucht, wenn Prompts in Copilot Studio verwendet werden. Weitere Informationen finden Sie unter AI Builder: Übersicht über die Lizenzierung.

Veröffentlichungsphasen

Modelle weisen unterschiedliche Phasen der Veröffentlichung auf. Sie können neue, hochmoderne Modelle in der Prüfung und Modelle in der Vorschauversion ausprobieren oder ein zuverlässiges, gründlich getestetes, allgemein verfügbares Modell wählen.

Tag Beschreibung des Dataflows
Experimentell Wird zum Experimentieren verwendet; nicht für den Produktionseinsatz empfohlen. Vorbehaltlich von Vorschauversionsbedingungen; Einschränkungen hinsichtlich Verfügbarkeit und Qualität möglich.
Vorschauversion Wird letztlich zu einem allgemein verfügbaren Modell; derzeit jedoch nicht für den Produktionseinsatz empfohlen. Vorbehaltlich von Vorschauversionsbedingungen; Einschränkungen hinsichtlich Verfügbarkeit und Qualität möglich.
Kein Tag Allgemein verfügbar. Sie können dieses Modell für den skalierten und produktiven Einsatz verwenden. In den meisten Fällen haben allgemein verfügbare Modelle keine Einschränkungen hinsichtlich Verfügbarkeit und Qualität, bei einigen gibt es jedoch möglicherweise trotzdem noch einige Einschränkungen, z. B. bezüglich der regionalen Verfügbarkeit.

Wichtig: Anthropic Claude-Modelle befinden sich in der Prüfungsphase, obwohl sie kein Tag anzeigen.
Standard Das Standardmodell für alle Agents und in der Regel das am besten geeignete allgemein verfügbare Modell. Das Standardmodell wird regelmäßig aktualisiert, wenn neue, fähigere Modelle allgemein verfügbar werden. Agents verwenden auch das Standardmodell als Fallback, wenn ein ausgewähltes Modell deaktiviert wird oder nicht verfügbar ist.

Modelle in der Prüfung und Modelle in der Vorschauversion können Schwankungen in der Leistung, der Antwortqualität, der Latenz oder dem Nachrichtenverbrauch aufweisen und möglicherweise eine Zeitüberschreitung verursachen oder nicht verfügbar sein. Sie unterliegen den Bedingungen für Vorschauversionen.

Kategorisierung

In der folgenden Tabelle sind die unterschiedlichen Modellkategorien beschrieben.

Mini Allgemein Tief
Leistung Gut für die meisten Aufgaben Überlegenheit bei komplexen Aufgaben Trainiert für Aufgaben zur Problemlösung
Geschwindigkeit Schnellere Verarbeitung Kann aufgrund der Komplexität langsamer sein Langsamer, da er „Reasoning“ durchführt, bevor er antwortet
Anwendungsfälle Zusammenfassung, Informationsaufgaben, Bild- und Dokumentenverarbeitung Bild- und Dokumentverarbeitung, erweiterte Aufgaben zum Erstellen von Inhalten Datenanalyse und Reasoning-Aufgaben, Bild- und Dokumentverarbeitung

Wenn Sie eine kostengünstige Lösung für mittelkomplexe Aufgaben benötigen, über begrenzte Rechenressourcen verfügen oder eine schnellere Verarbeitung benötigen, wählen Sie Mini-Modelle Es ist ideal für Projekte mit Budgetbeschränkungen und Anwendungen wie Kundensupport oder effiziente Codeanalyse.

Wenn Sie es mit hochkomplexen, multimodalen Aufgaben zu tun haben, die eine überragende Leistung und detaillierte Analyse erfordern, wählen Sie Modelle vom Typ Allgemein. Es ist die bessere Wahl für Großprojekte, bei denen Genauigkeit und erweiterte Funktionen entscheidend sind. Ein anderes Szenario, in dem es eine bessere Wahl ist, liegt dann vor, wenn Sie über das Budget und die Rechenressourcen verfügen, um es zu unterstützen. Allgemeine Modelle sind auch für langfristige Projekte vorzuziehen, die im Laufe der Zeit an Komplexität zunehmen könnten.

Für Projekte, die erweiterte Argumentationsfähigkeiten erfordern, eignen sich Deep-Modelle hervorragend. Es eignet sich für Szenarien, die eine ausgefeilte Problemlösung und kritisches Denken erfordern. Deep-Modelle eignen sich perfekt für Umgebungen, in denen nuanciertes Reasoning, komplexe Entscheidungsfindung und detaillierte Analysen wichtig sind.

Wählen Sie zwischen den Modellen basierend auf regionaler Verfügbarkeit, Funktionen, Anwendungsfällen und Kosten aus. Erfahren Sie mehr unter Modellverfügbarkeit nach Region und Preisvergleichstabelle.

Modellverfügbarkeit nach Region

Die folgenden Abschnitte beschreiben die öffentliche und US-staatliche Verfügbarkeit von Modellen nach Regionen.

Öffentliche Verfügbarkeit

In der folgenden Tabelle bedeutet (GA), (Vorschau) oder (Experimentell), dass die Funktion zwar verfügbar ist, aber einen Azure OpenAI-Dienst in einer anderen Region verwendet. Weitere Informationen finden Sie unter Datenverschiebung zwischen Regionen aktivieren.

Merkmal Asia Australien Canada Europa Frankreich Deutschland Indien Japan Norwegen Singapur Südafrika Südamerika Korea Schweden Schweiz Vereinigte Arabische Emirate Vereinigtes Königreich USA
GPT-4.1 Mini GA GA (GA) (GA) (GA) (GA) GA (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) GA GA
GPT-4.1 GA GA (GA) (GA) (GA) (GA) GA (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) GA GA
o3 (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) GA
GPT-5-Chat (GA) (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) GA
GPT-5-Reasoning (GA) (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) GA
GPT-5.2 Chat - - - - - - - - - - - - - - - - - Experimentell
GPT-5.2-Argumentation - - - - - - - - - - - - - - - - - Experimentell

Verfügbarkeit durch US-Regierung

Merkmal Government Community Cloud (GCC) Government Community Cloud – Hoch (GCC High) Verteidigungsministerium (DoD, Department of Defense)
GPT-4o Mini GA GA -
GPT-4o GA GA -
GPT-4o verwendet Bilder und Dokumente als Eingabe - - -

Modellaktualisierung

Modell Status Deaktivierungstermin Ersatz
GPT-4.1 Mini Allgemein verfügbar Noch kein Datum Nicht zutreffend
GPT-4.1 Allgemein verfügbar Noch kein Datum Nicht zutreffend
GPT-5-Chat Allgemein verfügbar Noch kein Datum Nicht zutreffend
GPT-5-Reasoning Allgemein verfügbar Noch kein Datum Nicht zutreffend
GPT-5.2 Chat Experimentell Noch kein Datum Nicht zutreffend
GPT-5.2-Argumentation Experimentell Noch kein Datum Nicht zutreffend
Claude Sonnet 4.5 Experimentell Noch kein Datum Nicht zutreffend
Claude Opus 4.1 Experimentell Dezember 2025 Claude Opus 4.5
Claude Opus 4.5 Ausstehende Verfügbarkeit Noch kein Datum Nicht zutreffend
o3 Zurückgezogen 4. Dezember 2025 GPT-5-Reasoning
GPT-4o Mini Zurückgezogen Juli 2025 GPT-4.1 Mini
GPT-4o Zurückgezogen Juli 2025 GPT-4.1
O1 Zurückgezogen Juli 2025 o3

Modelleinstellungen

Du kannst auf das Einstellungsfeld zugreifen, indem du die drei Punkte auswählst (...). >Einstellungen oben im Prompt-Builder. Sie können die folgenden Einstellungen ändern:

  • Temperatur: Niedrigere Temperaturen führen zu vorhersagbaren Ergebnissen. Höhere Temperaturen ermöglichen vielfältigere oder kreativere Antworten.
  • Datensatz abrufen: Anzahl der Datensätze, die für Ihre Wissensquellen abgerufen wurden.
  • Links in die Antwort einfügen: Wenn diese Option ausgewählt ist, enthält die Antwort Linkzitate für die abgerufenen Datensätze.

Temperatur

Mit dem Schieberegler können Sie die Temperatur des generativen KI-Modells auswählen. Variiert zwischen 0 und 1. Dieser Wert gibt dem GenAI-Modell vor, wie viel Kreativität (1) im Vergleich zur deterministischen Antwort (0) es liefern soll.

Die Temperatur ist ein Parameter, der die Zufälligkeit der vom KI-Modell generierten Ausgabe steuert. Eine niedrigere Temperatur führt zu vorhersehbareren und konservativeren Ergebnissen. Im Vergleich dazu ermöglicht eine höhere Temperatur mehr Kreativität und Vielfalt bei den Reaktionen. Auf diese Weise lässt sich das Gleichgewicht zwischen Zufälligkeit und Determinismus in der Ausgabe des Modells feinabstimmen.

Standardmäßig ist die Temperatur 0, wie in zuvor erstellten Eingabeaufforderungen.

Temperatur Funktionalität Verwenden in
0 Vorhersehbarere und konservativere Ergebnisse.
Die Antworten sind konsistenter.
Eingabeaufforderungen, die eine hohe Genauigkeit und weniger Variabilität erfordern.
1 Mehr Kreativität und Vielfalt in den Antworten.
Vielfältigere und manchmal innovativere Antworten.
Prompts, die sofort einsatzbereite neue Inhalte erstellen.

Das Anpassen der Temperatur kann die Ausgabe des Modells beeinflussen, garantiert aber kein bestimmtes Ergebnis. Die Antworten der KI sind von Natur aus probabilistisch und können auch bei derselben Temperatureinstellung variieren.

Anmerkung

Die Temperatureinstellung ist für das GPT-5-Reasoning-Modell nicht verfügbar. Aus diesem Grund ist der Schieberegler deaktiviert, wenn Sie das GPT-5-Reasoning-Modell auswählen.