Compartilhar via


Alterar a versão e as configurações do modelo

Este artigo explica como alterar a versão do modelo e as configurações no construtor de solicitações. A versão e as configurações do modelo podem afetar o desempenho e o comportamento do modelo IA generativa.

Seleção de modelo

Você pode alterar o modelo selecionando Modelo na parte superior do construtor de solicitações. O menu suspenso permite que você selecione entre os modelos de IAs generativas que geram respostas para seu prompt personalizado.

Importante

Em novembro de 2025, migramos o modelo o3 para o modelo de raciocínio GPT-5. As solicitações executadas no modelo o3 foram transferidas automaticamente para o modelo de raciocínio GPT-5 sem ação exigida de sua parte. É possível reverter temporariamente para o modelo o3 solicitando-o por meio de uma solicitação de suporte em solicitações. Essa exceção vai durar até 17 de dezembro de 2025, depois do qual o modelo o3 será aposentado permanentemente.

O uso de solicitações no Power Apps ou no Power Automate consome créditos do criador de solicitações, ao mesmo tempo em que o uso de solicitações no Microsoft Copilot Studio consome créditos do Copilot. Saiba mais sobre Licenciamento e créditos do criador de solicitações.

Visão geral

A tabela a seguir descreve os diferentes modelos disponíveis.

Modelo GPT Licenciamento Funcionalidades Categoria
GPT-4.1 mini
(Modelo padrão)
Tarifa básica Treinado em dados até junho de 2024. Insira até 128K tokens. Mini
GPT-4.1 Taxa padrão Treinado em dados até junho de 2024. O contexto permitia até 128 mil tokens. Geral
Chat GPT-5 Taxa padrão Treinado em dados até setembro de 2024. O contexto permitia até 128 mil tokens. Geral
Raciocínio do GPT-5 Taxa premium Treinado em dados até setembro de 2024. O contexto permitia até 400 mil tokens. Profundo
Chat GPT-5.2 (Experimental) Taxa padrão O contexto permitia até 128 mil tokens. Geral
Raciocínio GPT-5.2 (Experimental) Taxa premium Treinado em dados até outubro de 2024. O contexto permitia até 400 mil tokens. Profundo
Claude Sonnet 4.5 (Experimental) Taxa padrão Modelo externo da Anthropic. O Context permitia até 200 mil tokens. Geral
Claude Opus 4.1 (Experimental) Taxa premium Modelo externo da Anthropic. O Context permitia até 200 mil tokens. Profundo

GPT-4o mini e GPT-4o continuam sendo usados em regiões do governo dos EUA. Esses modelos seguem regras de licenciamento e oferecem funcionalidades comparáveis a GPT-4.1 mini e GPT-4.1, respectivamente.

A disponibilidade dos modelos varia de região para região. Saiba mais sobre a disponibilidade de modelos em Disponibilidade de Modelos por região.

Modelos anthropic são hospedados fora da Microsoft e estão sujeitos a termos e tratamento de dados Anthropic. Saiba mais sobre modelos da Anthropic externos em Escolha um modelo externo como o modelo de IA principal.

Licenciamento

Em agentes, fluxos ou aplicativos, modelos usados por solicitações consomem créditos do Copilot, independentemente do estágio da versão. Saiba mais em Gerenciamento de créditos do Copilot.

Se você tem créditos do AI Builder, eles são consumidos com prioridade quando os prompts são usados no Power Apps e no Power Automate. Eles não são consumidos quando os prompts são usados no Copilot Studio. Saiba mais em AI Builder: visão geral do licenciamento.

Estágios de lançamento

Os modelos têm estágios de lançamento diferentes. Você pode testar novos modelos experimentais e de versão preliminar de ponta, ou escolher um modelo confiável, totalmente testado e amplamente disponível.

Marca Descrição
Experimental Usado na experimentação e não recomendado para uso em produção. Sujeito a termos de versão preliminar e pode ter limitações quanto à disponibilidade e à qualidade.
Versão preliminar Ele acaba se torna um modelo amplamente disponível, mas atualmente não é recomendado para uso em produção. Sujeito a termos de versão preliminar e pode ter limitações quanto à disponibilidade e à qualidade.
Sem marca Em disponibilidade geral. Você pode usar esse modelo no uso escalonado e de produção. Na maioria dos casos, modelos amplamente disponíveis não têm limitações de disponibilidade e qualidade, mas alguns ainda podem ter algumas limitações, como disponibilidade regional.

Importante: os modelos Claude da Anthropic estão no estágio experimental, mesmo que eles não exibam uma marca.
Padrão O modelo padrão para todos os agentes, e normalmente o modelo amplamente disponível de melhor desempenho. O modelo padrão é atualizado periodicamente à medida que modelos novos, mais capazes, se tornam amplamente disponíveis. Os agentes também usam o modelo padrão como um fallback caso um modelo selecionado permaneça desativado ou indisponível.

Os modelos experimentais e de versão preliminar podem mostrar variabilidade em termos de desempenho, qualidade de resposta, latência ou consumo de mensagens, e podem atingir tempo limite ou estar indisponíveis. Eles estão sujeitos a termos de versão preliminar.

Categorização

A tabela a seguir descreve as categorias de modelo diferentes.

Mini Geral Profundo
Desempenho Bom para a maioria das tarefas Superior para tarefas complexas Treinado para tarefas de raciocínio
Velocidade Processamento mais rápido Pode ser mais lento devido à complexidade Mais devagar, pois ele raciocina antes de responder
Casos de uso Sumarização, tarefas de informação, processamento de documentos e imagens Processamento de documentos e imagens, tarefas para criação de conteúdo avançadas Tarefas da análise de dados e raciocínio, processamento de documentos e imagens

Quando você precisar de uma solução econômica para tarefas de complexidade moderada, com recursos computacionais limitados ou precisar de processamento mais rápido, escolha os modelos Mini. Ele é ideal para projetos com restrições orçamentárias e aplicativos como suporte ao cliente ou análise de código eficiente.

Quando você estiver resolvendo tarefas multimodais altamente complexas que exijam desempenho superior e análise detalhada, escolha modelos Gerais. Ele é a melhor escolha para projetos de grande escala onde a precisão e os recursos avançados são cruciais. Outro cenário em que é uma escolha melhor é quando você tem o orçamento e os recursos computacionais para suportá-lo. Os modelos gerais também são preferíveis para projetos de longo prazo cuja complexidade possa crescer com o passar do tempo.

Para projetos que exijam recursos de raciocínio avançados, os modelos Deep se destacam. É adequado para cenários que exigem resolução sofisticada de problemas e pensamento crítico. Os modelos Deep se destacam em ambientes onde raciocínio matizado, tomada de decisão complexa e análise detalhada são importantes.

Escolha entre os modelos com base na disponibilidade da região, nas funcionalidades, nos casos de uso e nos custos. Saiba mais sobre Disponibilidade de Modelos por região e Tabela comparativa de preços.

Disponibilidade de modelos por região

As seções a seguir descrevem a disponibilidade pública e do governo dos EUA de modelos por região.

Disponibilidade pública

Na tabela a seguir, (GA), (Prévia) ou (Experimental) significa que o recurso está disponível, mas utiliza um serviço Azure OpenAI em outra região. Saiba mais em Habilitando a movimentação de dados entre regiões.

Característica Ásia Austrália Canadá Europa França Alemanha Índia Japão Noruega Cingapura África do Sul América do Sul Coréia Suécia Suíça Emirados Árabes Unidos Reino Unido Estados Unidos
GPT-4.1 mini GA GA (GA) (GA) (GA) (GA) GA (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) GA GA
GPT-4.1 GA GA (GA) (GA) (GA) (GA) GA (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) GA GA
o3 (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) GA
Chat GPT-5 (GA) (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) GA
Raciocínio do GPT-5 (GA) (GA) (GA) GA (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) (GA) GA
Chat GPT-5.2 - - - - - - - - - - - - - - - - - Experimental
Raciocínio GPT-5.2 - - - - - - - - - - - - - - - - - Experimental

Disponibilidade do governo dos EUA

Característica Nuvem da Comunidade Governamental (GCC) GCC High (Nuvem da Comunidade Governamental – Alta) Departamento de Defesa (DoD)
GPT-4o mini GA GA -
GPT-4o GA GA -
GPT-4o usando imagem ou documento como entrada - - -

Atualizações do modelo

Modelo Status Data de baixa Substituição
GPT-4.1 mini Disponível para o público geral Ainda sem data n/d
GPT-4.1 Disponível para o público geral Ainda sem data n/d
Chat GPT-5 Disponível para o público geral Ainda sem data n/d
Raciocínio do GPT-5 Disponível para o público geral Ainda sem data n/d
Chat GPT-5.2 Experimental Ainda sem data n/d
Raciocínio GPT-5.2 Experimental Ainda sem data n/d
Claude Soneto 4.5 Experimental Ainda sem data n/d
Claude Opus 4.1 Experimental Dezembro de 2025 Claude Opus 4.5
Claude Opus 4.5 Disponibilidade pendente Ainda sem data n/d
o3 Desativado 4 de dezembro de 2025 Raciocínio do GPT-5
GPT-4o mini Desativado Julho de 2025 GPT-4.1 mini
GPT-4o Desativado Julho de 2025 GPT-4.1
o1 Desativado Julho de 2025 o3

Configurações do modelo

Você pode acessar o painel de configurações selecionando os três pontos (...) >Configurações no topo do construtor de prompts. Você também alterar as seguintes configurações:

  • Temperatura: temperaturas mais baixas acarretam resultados previsíveis. Temperaturas mais altas permitem respostas mais diversas ou criativas.
  • Recuperação de registros: número de registros recuperados para as fontes de conhecimento.
  • Incluir links na resposta: quando selecionada, a resposta inclui citações de link para os registros recuperados.

Temperatura

O controle deslizante permite selecionar a temperatura do modelo de IA generativa. Ele varia entre 0 e 1. Este valor orienta o modelo de IA generativa sobre quanta criatividade (1) X resposta determinística (0) ele deve fornecer.

A temperatura é um parâmetro que controla a aleatoriedade da saída gerada pelo modelo de IA. Uma temperatura mais baixa resulta em saídas mais previsíveis e conservadoras. Para comparar, uma temperatura mais alta permite mais criatividade e diversidade nas respostas. É uma maneira de ajustar o equilíbrio entre aleatoriedade e determinismo na saída do modelo.

Por padrão, a temperatura é 0, como nas solicitações criadas anteriormente.

Temperatura Funcionalidade Usar em
0 Resultados mais previsíveis e conservadores.
As respostas são mais consistentes.
Solicitações que exigem alta precisão e menor variabilidade.
1 Mais criatividade e diversidade nas respostas.
Respostas mais variadas e, por vezes, mais inovadoras.
Solicitações que criam um novo conteúdo pronto para uso.

O ajuste da temperatura pode influenciar na saída do modelo, mas não garante um resultado específico. As respostas da IA são inerentemente probabilísticas e podem variar com a mesma configuração de temperatura.

Observação

A configuração de temperatura não está disponível para o modelo de raciocínio GPT-5. Por esse motivo, o controle deslizante permanece desativado quando você seleciona o modelo de raciocínio GPT-5.