Udostępnij przez


Zmienianie wersji modelu i ustawień

W tym artykule wyjaśniono, jak zmienić wersję modelu i ustawienia w konstruktorze monitów. Wersja modelu i ustawienia mogą wpływać na wydajność i zachowanie generatywnego modelu AI.

Wybór modelu

Możesz zmienić model, wybierając pozycję Model u góry konstruktora monitów. Menu rozwijane pozwala wybrać spośród generatywnych modeli AI, które generują odpowiedzi na monit niestandardowy.

Ważne

W listopadzie 2025 r. zmigrowaliśmy model o3 do modelu rozumowania GPT-5. Monity uruchomione w modelu o3 zostały automatycznie przełączone do modelu rozumowania GPT-5 bez konieczności wykonania żadnej akcji. Można tymczasowo przywrócić model o3, żądając go za pośrednictwem wniosku o pomoc techniczną po wyświetleniu monitów. Ten wyjątek trwa do 17 grudnia 2025 r., po którym model o3 zostanie trwale wycofany.

Korzystanie z monitów w aplikacjach Power Apps lub Power Automate zużywa kredyty konstruktora monitów, natomiast korzystanie z monitów w Microsoft Copilot Studio zużywa kredyty Copilot. Dowiedz się więcej na temat licencjonowania i kredytów konstruktora monitów.

Przegląd

Poniższa tabela opisuje dostępne różne modele.

Model GPT Licencjonowanie Funkcje Kategoria
GPT-4.1 mini
(Model domyślny)
Stawka podstawowa Wytrenowano na danych do czerwca 2024 r. Wprowadź do 128K tokenów. Mini
GPT-4.1 Stawka standardowa Wytrenowano na danych do czerwca 2024 r. Dozwolony kontekst to maksymalnie 128 tys. tokenów. Ogólne
Czat GPT-5 Stawka standardowa Przeszkolone na danych do września 2024 r. Dozwolony kontekst to maksymalnie 128 tys. tokenów. Ogólne
Wnioskowanie GPT-5 Stawka Premium Przeszkolone na danych do września 2024 r. Dozwolony kontekst to maksymalnie 400 tys. tokenów. Głęboki
Czat GPT-5.2 (Eksperymentalny) Stawka standardowa Dozwolony kontekst to maksymalnie 128 tys. tokenów. Ogólne
Rozumowanie GPT-5.2 (eksperymentalne) Stawka Premium Wytrenowano na danych do października 2024 r. Dozwolony kontekst to maksymalnie 400 tys. tokenów. Głęboki
Claude Sonnet 4.5 (Eksperymentalny) Stawka standardowa Model zewnętrzny firmy Anthropic. Dozwolony kontekst to maksymalnie 200 tys. tokenów. Ogólne
Claude Opus 4.1 (Eksperymentalny) Stawka Premium Model zewnętrzny firmy Anthropic. Dozwolony kontekst to maksymalnie 200 tys. tokenów. Głęboki

GPT-4o mini i GPT 4o nadal są używane przez instytucje rządowe Stanów Zjednoczonych. Modele te są zgodne z zasadami licencjonowania i oferują funkcjonalności porównywalne odpowiednio z GPT-4.1 mini i GPT-4.1.

Dostępność modeli różni się w zależności od regionu. Dowiedz się więcej o dostępności modeli w dostępności modeli według regionów.

Modele Anthropic są hostowane poza Microsoft i podlegają terminom oraz obsłudze danych w Anthropic (Anthropic terms) oraz przetwarzaniu danych. Dowiedz się więcej o zewnętrznych modelach Anthropic w temacie Wybieranie modelu zewnętrznego jako podstawowego modelu AI.

Licencjonowanie

W agentach, przepływach lub aplikacjach modele używane przez monity wykorzystują kredyty Copilot, niezależnie od ich etapu wydania. Dowiedz się więcej w Zarządzanie kredytami Copilot.

Jeśli masz kredyty z AI Builder, są one priorytetowo wykorzystywane podczas korzystania z promptów w Power Apps i Power Automate. Nie są one zużywane, gdy w Copilot Studio pojawiają się prompty. Dowiedz się więcej w narzędziu AI Builder: omówienie licencjonowania.

Etapy wydania

Modele mają różne etapy wydawania. Możesz wypróbować nowe, najnowocześniejsze modele eksperymentalne i w wersji zapoznawczej lub wybrać niezawodny, dokładnie przetestowany ogólnie dostępny model.

Tag Podpis
Eksperymentalne Używany do eksperymentowania i nie jest zalecany do użytku produkcyjnego. Z zastrzeżeniem warunków wersji zapoznawczej i mogą mieć ograniczenia dotyczące dostępności i jakości.
Wersja zapoznawcza Ostatecznie stanie się ogólnie dostępnym modelem, ale obecnie nie jest zalecany do użytku produkcyjnego. Z zastrzeżeniem warunków wersji zapoznawczej i mogą mieć ograniczenia dotyczące dostępności i jakości.
Brak tagu Ogólna dostępność. Możesz użyć tego modelu do skalowania i użytku produkcyjnego. W większości przypadków ogólnie dostępne modele nie mają ograniczeń dotyczących dostępności i jakości, ale niektóre mogą nadal mieć pewne ograniczenia, na przykład w dostępności regionalnej.

Ważne: modele Anthropic Claude znajdują się na etapie eksperymentalnym, mimo że nie wyświetlają tagu.
Wartość domyślna Domyślny model dla wszystkich agentów i zwykle najlepiej działający ogólnie dostępny model. Domyślny model jest okresowo uaktualniany i jako nowy, bardziej zdolny model staje się ogólnie dostępny. Agenty używają również modelu domyślnego jako rezerwowego, jeśli wybrany model jest wyłączony lub niedostępny.

Modele eksperymentalne i w wersji zapoznawczej mogą wykazywać zmienną wydajność, jakość odpowiedzi, opóźnienia lub zużycie komunikatów i upłynięcie limitu czasu lub mogą być niedostępne. Podlegają one warunkom wersji zapoznawczej.

Kategoryzacja

W poniższej tabeli opisano różne kategorie modeli:

Mini Ogólne Głęboki
Wydajność Nadaje się do większości zadań Doskonały do złożonych zadań Wytrenowany do zadań związanych z rozumowaniem
Szybkość Szybsze przetwarzanie Może być wolniejszy ze względu na złożoność Wolniej, ponieważ rozważa, zanim odpowie
Przypadki użycia Podsumowanie, zadania informacyjne, przetwarzanie obrazów i dokumentów Przetwarzanie dokumentów i obrazów, zaawansowane zadania tworzenia zawartości Zadania analizy i wnioskowania z danych, przetwarzanie dokumentów i obrazów

Jeśli potrzebujesz ekonomicznego rozwiązania do zadań o średniej złożoności, masz ograniczone zasoby obliczeniowe lub potrzebujesz szybszego przetwarzania, wybierz modele Mini. Jest to idealne rozwiązanie dla projektów z ograniczonym budżetem i zastosowań takich jak obsługa klienta lub wydajna analiza kodu.

Jeśli masz do czynienia z bardzo złożonymi, multimodalnymi zadaniami, które wymagają doskonałej wydajności i szczegółowej analizy, wybierz modele Ogólne. Jest to lepszy wybór w przypadku dużych projektów, w których dokładność i zaawansowane możliwości mają kluczowe znaczenie. Innym scenariuszem, w którym lepszym wyborem jest budżet i zasoby obliczeniowe, aby go obsługiwać. Modele ogólne są również preferowane w przypadku projektów długoterminowych, które z czasem mogą stawać się coraz bardziej złożone.

W przypadku projektów wymagających zaawansowanych możliwości wnioskowania doskonale sprawdzają się modele Głębokie. Nadaje się do scenariuszy, które wymagają wyrafinowanego rozwiązywania problemów i krytycznego myślenia. Model Głęboki doskonale sprawdza się w środowiskach, w których ważne jest dogłębne rozumowanie, złożone podejmowanie decyzji i szczegółowa analiza.

Wybierz spośród modeli w oparciu o dostępność w regionie, funkcje, przypadki użycia i koszty. Dowiedz się więcej w dostępności modeli według regionów oraz tabeli porównania cen.

Dostępność modeli według regionów

Poniższe sekcje opisują dostępność modeli dla społeczeństwa i rządu USA według regionów.

Publiczna dostępność

W poniższej tabeli (GA), (Podgląd) lub (Eksperymentalne) oznacza, że funkcja jest dostępna, ale korzysta z usługi Azure OpenAI w innym regionie. Dowiedz się więcej w temacie Włączanie przenoszenia danych między regionami.

Funkcja Azja Australia Canada Europa Francja Niemcy Indie Japonia Norwegia Singapur Republika Południowej Afryki Ameryka Południowa Korea Szwecja Szwajcaria Zjednoczone Emiraty Arabskie Wielka Brytania Stany Zjednoczone
GPT-4.1 mini ogólna dostępność ogólna dostępność (GA) (GA) (GA) (GA) ogólna dostępność (GA) (GA) ogólna dostępność (GA) (GA) (GA) (GA) (GA) (GA) ogólna dostępność ogólna dostępność
GPT-4.1 ogólna dostępność ogólna dostępność (GA) (GA) (GA) (GA) ogólna dostępność (GA) (GA) ogólna dostępność (GA) (GA) (GA) (GA) (GA) (GA) ogólna dostępność ogólna dostępność
o3 (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) ogólna dostępność
Czat GPT-5 (GA) (GA) (GA) ogólna dostępność (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) ogólna dostępność
Wnioskowanie GPT-5 (GA) (GA) (GA) ogólna dostępność (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) ogólna dostępność
Czat GPT-5.2 - - - - - - - - - - - - - - - - - Eksperymentalne
Rozumowanie GPT-5.2 - - - - - - - - - - - - - - - - - Eksperymentalne

Dostępność rządu USA

Funkcja Chmura społecznościowa rządowa (GCC) Government Community Cloud — wysoka (GCC High) Departament Obrony (DoD)
GPT-4o mini ogólna dostępność ogólna dostępność -
GPT-4o ogólna dostępność ogólna dostępność -
GPT-4o przy użyciu wejścia obrazu lub dokumentu - - -

Aktualizacje modelu

Model Stan Data przejścia w stan spoczynku Zastąpienie
GPT-4.1 mini Ogólna dostępność Brak jeszcze daty nie dotyczy
GPT-4.1 Ogólna dostępność Brak jeszcze daty nie dotyczy
Czat GPT-5 Ogólna dostępność Brak jeszcze daty nie dotyczy
Wnioskowanie GPT-5 Ogólna dostępność Brak jeszcze daty nie dotyczy
Czat GPT-5.2 Eksperymentalne Brak jeszcze daty nie dotyczy
Rozumowanie GPT-5.2 Eksperymentalne Brak jeszcze daty nie dotyczy
Claude Sonnet 4.5 Eksperymentalne Brak jeszcze daty nie dotyczy
Claude Opus 4.1 Eksperymentalne Grudzień 2025 Claude Opus 4.5
Claude Opus 4.5 Oczekiwanie na dostępność Brak jeszcze daty nie dotyczy
o3 Wycofane 4 grudnia 2025 roku Wnioskowanie GPT-5
GPT-4o mini Wycofane Lipiec 2025 roku GPT-4.1 mini
GPT-4o Wycofane Lipiec 2025 roku GPT-4.1
o1 Wycofane Lipiec 2025 roku o3

Ustawienia modelu

Do panelu ustawień można wejść, wybierając trzy kropki (...) >Ustawienia na górze edytora promptów. Możesz zmienić następujące ustawienia:

  • Temperatura: Niższe temperatury prowadzą do przewidywalnych wyników. Wyższe temperatury umożliwiają bardziej zróżnicowane lub kreatywne odpowiedzi.
  • Pobieranie rekordów: Liczba rekordów pobranych dla Twoich źródeł wiedzy.
  • Dołącz linki do odpowiedzi: Po wybraniu tej opcji odpowiedź zawiera odnośniki do pobranych rekordów.

Temperatura

Suwak pozwala wybrać temperaturę w modelu generatywnej AI. Zmienne w zakresie od 0 do 1. Ta wartość wskazuje generatywnemu modelowi AI, jaki poziom kreatywności (1) w stosunku do poziomu determinizmu (0) powinna zapewniać odpowiedź.

Temperatura to parametr sterujące losowym parametrem wyjściowym wygenerowanym przez model AI. Obniżenie temperatury powoduje, że wyniki pracy są bardziej przewidywalne i konserwatywne. Dla porównania wysoka temperatura pozwala na większą kreatywność i różnorodność w odpowiedziach. Jest to sposób na dostrojenie równowagi między losowością i determinizmem wartości wyjściowej modelu.

Domyślnie wartość temperatury ma ustawienie 0, tak jak w utworzonych wcześniej monitach.

Temperatura Funkcje Używanie w usłudze
0 Bardziej przewidywalne i konserwatywne wartości wyjściowe.
Odpowiedzi są bardziej spójne.
Monity wymagające wysokiej dokładności i mniejszej zmienności.
1 Większa kreatywność i różnorodność w odpowiedziach.
Bardziej zróżnicowane i czasami bardziej innowacyjne odpowiedzi.
Monity tworzące nową, gotową zawartość.

Regulacja temperatury może mieć wpływ na wynik modelu, ale nie gwarantuje konkretnego wyniku. Odpowiedzi AI są z natury probabilistyczne i mogą się różnić nawet w przypadku tego samego ustawienia temperatury.

Notatka

Ustawienie temperatury nie jest dostępne dla modelu rozumowania GPT-5. Z tego powodu suwak jest wyłączony po wybraniu modelu rozumowania GPT-5.