Compartilhar via


Serviço do Azure AI Foundry Agent (versão prévia)

Integre facilmente os recursos do Serviço do Azure AI Foundry Agent aos seus fluxos de trabalho.

Esse conector está disponível nos seguintes produtos e regiões:

Service Class Regions
Copilot Studio Premium Todas as regiões do Power Automate , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Aplicativos Lógicos Standard Todas as regiões dos Aplicativos Lógicos , exceto as seguintes:
     – Regiões do Azure Governamental
     - Regiões do Azure China
     - Departamento de Defesa dos EUA (DoD)
Power Apps Premium Todas as regiões do Power Apps , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Power Automate Premium Todas as regiões do Power Automate , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Contato
Nome Microsoft
URL https://support.microsoft.com
Metadados do conector
Publicador Microsoft
Site https://learn.microsoft.com/en-us/azure/ai-services/agents/
Política de privacidade https://learn.microsoft.com/en-us/legal/cognitive-services/agents/data-privacy-security
Categorias IA; Business Intelligence

Criando uma conexão

O conector dá suporte aos seguintes tipos de autenticação:

Identidades gerenciadas de Aplicativos Lógicos Criar uma conexão usando uma Identidade Gerenciada do LogicApps Somente LOGICAPPS Compartilhável
Logon do usuário do Microsoft Entra ID Fazer logon com as credenciais de ID do Microsoft Entra Todas as regiões Não compartilhável
Padrão [PRETERIDO] Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores. Todas as regiões Não compartilhável

Identidade Gerenciada de Aplicativos Lógicos

ID de autenticação: managedIdentityAuth

Aplicável: somente LOGICAPPS

Criar uma conexão usando uma Identidade Gerenciada do LogicApps

Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs

Nome Tipo Description Obrigatório
Identidade Gerenciada do LogicApps managedIdentity Entrar com uma identidade gerenciada de aplicativos lógicos Verdade
Ponto de extremidade do projeto de IA do Azure cadeia O nome do ponto de extremidade do projeto de IA do Azure, como https://{account-name}.services.ai.azure.com/api/projects/{project-name} Verdade

Logon do usuário do Microsoft Entra ID

ID de autenticação: entraIDUserLogin

Aplicável: todas as regiões

Fazer logon com as credenciais de ID do Microsoft Entra

Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.

Nome Tipo Description Obrigatório
Ponto de extremidade do projeto de IA do Azure cadeia O nome do ponto de extremidade do projeto de IA do Azure, como https://{account-name}.services.ai.azure.com/api/projects/{project-name} Verdade

Padrão [PRETERIDO]

Aplicável: todas as regiões

Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores.

Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.

Limitações

Nome Chamadas Período de renovação
Chamadas à API por conexão 1000 60 segundos

Ações

Criar lance de esquadra

Criar lance de esquadra

Criar Thread

Criar Thread

Invocar Agente

Invocar Agente.

Listar agentes

Listar agentes

Listar mensagens

Listar mensagens

Obter Executar

Obter Executar

Protocolo de atividade do agente externo com base no aplicativo

Protocolo de atividade do agente externo com base no aplicativo

Protocolo de atividade do agente externo com base no identificador do agente

Protocolo de atividade do agente externo com base no identificador do agente

Criar lance de esquadra

Criar lance de esquadra

Parâmetros

Nome Chave Obrigatório Tipo Description
Versão da API
api-version True string

Versão da API

A ID do thread para o qual criar uma mensagem.
ThreadId True string

A ID do thread para o qual criar uma mensagem.

assistant_id
assistant_id True string

A ID do assistente a ser usada para executar esta execução.

modelo
model string

O nome da implantação do modelo a ser usado para executar essa execução. Se fornecido, ele substitui o nome de implantação do modelo do assistente.

instructions
instructions string

Substitui as instruções do assistente. Útil para modificar o comportamento por execução.

additional_instructions
additional_instructions string

Acrescenta instruções adicionais ao final das instruções para a execução.

função
role string

A função da entidade que está criando a mensagem. Pode ser usuário ou assistente. 'user' indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário. 'assistant' indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.

conteúdo
content string

O conteúdo da mensagem.

nome
name string

Lista de IDs de arquivo ou mensagens que podem ser usadas na execução.

metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.

nome
name string

Lista de ferramentas que podem ser usadas na execução.

metadados
metadata object

Conjunto de 16 pares chave-valor anexados a um objeto. Comprimento máximo das chaves: 64 caracteres, comprimento máximo de valores: 512 caracteres.

temperatura
temperature number

Temperatura de amostragem (0-2). Valores mais altos (por exemplo, 0,8) aumentam a aleatoriedade, valores mais baixos (por exemplo, 0,2) tornam a saída mais determinística.

top_p
top_p number

Amostragem de núcleo alternativa à temperatura. 0,1 significa que as 10 maiores% massa de probabilidade é considerada.

fluxo
stream boolean

Se for true, retornará um fluxo de eventos durante a execução como eventos enviados pelo servidor, encerrando com uma mensagem 'data: [DONE]'.

max_prompt_tokens
max_prompt_tokens integer

O número máximo de tokens de conclusão que podem ser usados durante a execução. Se excedida, a execução termina como incompleta.

max_completion_tokens
max_completion_tokens integer

O número máximo de tokens de conclusão que podem ser usados durante a execução. Se excedida, a execução termina como incompleta.

truncation_strategy
truncation_strategy object

Controla como um thread é truncado antes da execução para gerenciar a janela de contexto inicial.

tool_choice
tool_choice object

Controla qual ferramenta o modelo chama. O padrão é 'auto', permitindo que o modelo decida. Pode ser definido como "nenhum" para desabilitar o uso da ferramenta.

formato_de_resposta
response_format object

Especifica o formato de saída. Configuração { 'type': 'json_object' } habilita o modo JSON para respostas JSON válidas.

Retornos

Criar Thread

Criar Thread

Parâmetros

Nome Chave Obrigatório Tipo Description
Versão da API
api-version True string

Versão da API

função
role string

A função da entidade que está criando a mensagem. Pode ser usuário ou assistente. 'user' indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário. 'assistant' indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.

conteúdo
content string

O conteúdo da mensagem.

nome
name string

Lista de IDs de arquivo ou mensagens que podem ser usadas na execução.

metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.

metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.

tool_resources
tool_resources object

Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.

Retornos

Invocar Agente

Invocar Agente.

Parâmetros

Nome Chave Obrigatório Tipo Description
Versão da API
api-version True string

Versão da API

metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.

usuário
user string

Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. Saiba mais.

top_logprobs
top_logprobs integer

Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.

previous_response_id
previous_response_id string

A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversa.

em segundo plano
background boolean

Se a resposta do modelo deve ser executada em segundo plano. Saiba mais.

max_output_tokens
max_output_tokens integer

Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio.

max_tool_calls
max_tool_calls integer

O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas.

tipo
type True string

Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.

tipo
type True string

Uma ferramenta que pode ser usada para gerar uma resposta.

tool_choice
tool_choice

Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.

id
id True string

O identificador exclusivo do modelo de prompt a ser usado.

versão
version string

Versão opcional do modelo de prompt.

variables
variables object

Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos.

truncation
truncation string

A estratégia de truncamento a ser usada para a resposta do modelo.

  • auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
  • disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
entrada
input

Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta.

Saiba Mais:

incluir
include string

Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:

  • code_interpreter_call.outputs: inclui os resultados da execução do código python nos itens de chamada da ferramenta interpretadora de código.
  • computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
  • file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos.
  • message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
  • message.output_text.logprobs: inclua logprobs com mensagens de assistente.
  • reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao utilizar a API de Respostas sem estado (como quando o parâmetro store é definido para false, ou quando uma organização está inscrita no programa de retenção de dados zero).
parallel_tool_calls
parallel_tool_calls boolean

Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo.

armazenar
store boolean

Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API.

instructions
instructions string

Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.

tipo
type True string
nome
name True string

O nome do agente.

versão
version True string

O identificador de versão do agente.

Retornos

Listar agentes

Listar agentes

Parâmetros

Nome Chave Obrigatório Tipo Description
Versão da API
api-version True string

Versão da API

Retornos

Listar mensagens

Listar mensagens

Parâmetros

Nome Chave Obrigatório Tipo Description
Versão da API
api-version True string

Versão da API

A ID do thread para o qual criar uma mensagem.
ThreadId True string

A ID do thread para o qual criar uma mensagem.

Retornos

Obter Executar

Obter Executar

Parâmetros

Nome Chave Obrigatório Tipo Description
Versão da API
api-version True string

Versão da API

A ID do thread para o qual criar uma mensagem.
ThreadId True string

A ID do thread para o qual criar uma mensagem.

A ID da execução.
RunId True string

A ID da execução.

Retornos

Protocolo de atividade do agente externo com base no aplicativo

Protocolo de atividade do agente externo com base no aplicativo

Parâmetros

Nome Chave Obrigatório Tipo Description
Aplicativo do agente.
MyApplication True string

Aplicativo do agente.

object

Retornos

response
object

Protocolo de atividade do agente externo com base no identificador do agente

Protocolo de atividade do agente externo com base no identificador do agente

Parâmetros

Nome Chave Obrigatório Tipo Description
A ID do agente para o qual enviar uma mensagem.
AgentId True string

A ID do agente para o qual enviar uma mensagem.

object

Retornos

response
object

Definições

listAgentsResponse

Nome Caminho Tipo Description
objeto
object string

Detalhes do tipo de objeto de resposta.

dados
data array of Data

A lista de mensagens retornadas pelo serviço.

first_id
first_id string

Detalhes da primeira ID.

last_id
last_id string

Detalhes da última ID.

has_more
has_more boolean

Informa se há mais agentes lá.

createThreadResponse

Nome Caminho Tipo Description
id
id string

O identificador, que pode ser referenciado em pontos de extremidade de API.

objeto
object string

O tipo de objeto, que é sempre thread.

criado_em
created_at integer

O carimbo de data/hora do Unix (em segundos), para quando o thread foi criado.

metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.

createRunResponse

Nome Caminho Tipo Description
id
id string

O identificador, que pode ser referenciado em pontos de extremidade de API.

objeto
object string

O tipo de objeto, que é sempre thread.run.

criado_em
created_at integer

O carimbo de data/hora do Unix (em segundos), para quando a execução foi criada.

thread_id
thread_id string

A ID do thread em que foi executado como parte dessa execução.

assistant_id
assistant_id string

A ID do assistente usada para a execução dessa execução.

status
status string

O status da execução, que pode ser enfileirada, in_progress, requires_action, cancelando, cancelada, com falha, concluída ou expirada.

required_action
required_action object

Detalhes sobre a ação necessária para continuar a execução. Será nulo se nenhuma ação for necessária.

último_erro
last_error object

O último erro associado a esta execução. Será nulo se não houver erros.

expira_em
expires_at integer

O carimbo de data/hora do Unix (em segundos) para quando a execução expirará.

started_at
started_at integer

O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada.

cancelado_em
cancelled_at integer

O carimbo de data/hora unix (em segundos) para quando a execução foi cancelada.

failed_at
failed_at integer

O carimbo de data/hora do Unix (em segundos) para quando a execução falhou.

concluído_em
completed_at integer

O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída.

modelo
model string

O nome da implantação do modelo que o assistente usou para essa execução.

instructions
instructions string

As instruções que o assistente usou para esta execução.

Ferramentas
tools array of tools

A lista de ferramentas que o assistente usou para essa execução.

identificadores_de_arquivos
file_ids array of fileIds

A lista de IDs de arquivo que o assistente usou para esta execução.

metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.

tool_choice
tool_choice object

Controla qual ferramenta (se houver) é chamada pelo modelo. 'none' significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. 'auto' significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta. Especificando uma ferramenta como {'type': 'file_search'} ou {'type': 'function', 'function': {'name': 'my_function'}} força o modelo a chamar essa ferramenta.

max_prompt_tokens
max_prompt_tokens number

O número máximo de tokens de prompt especificados que foram usados ao longo da execução.

max_completion_tokens
max_completion_tokens number

O número máximo de tokens de conclusão especificados que foram usados ao longo da execução.

uso
usage object

Estatísticas de uso relacionadas à execução. Esse valor será nulo se a execução não estiver em um estado terminal (por exemplo, in_progress, enfileirada).

truncation_strategy
truncation_strategy object

Controla como um thread é truncado antes da execução.

formato_de_resposta
response_format string

O formato que o modelo deve gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

getRunResponse

Nome Caminho Tipo Description
id
id string

O identificador, que pode ser referenciado em pontos de extremidade de API.

objeto
object string

O tipo de objeto, que é sempre thread.run.

criado_em
created_at integer

O carimbo de data/hora do Unix (em segundos), para quando a execução foi criada.

thread_id
thread_id string

A ID do thread em que foi executado como parte dessa execução.

assistant_id
assistant_id string

A ID do assistente usada para a execução dessa execução.

status
status string

O status da execução, que pode ser enfileirada, in_progress, requires_action, cancelando, cancelada, com falha, concluída ou expirada.

required_action
required_action object

Detalhes sobre a ação necessária para continuar a execução. Será nulo se nenhuma ação for necessária.

último_erro
last_error object

O último erro associado a esta execução. Será nulo se não houver erros.

expira_em
expires_at integer

O carimbo de data/hora do Unix (em segundos) para quando a execução expirará.

started_at
started_at integer

O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada.

cancelado_em
cancelled_at integer

O carimbo de data/hora unix (em segundos) para quando a execução foi cancelada.

failed_at
failed_at integer

O carimbo de data/hora do Unix (em segundos) para quando a execução falhou.

concluído_em
completed_at integer

O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída.

modelo
model string

O nome da implantação do modelo que o assistente usou para essa execução.

instructions
instructions string

As instruções que o assistente usou para esta execução.

Ferramentas
tools array of tools

A lista de ferramentas que o assistente usou para essa execução.

identificadores_de_arquivos
file_ids array of fileIds

A lista de IDs de arquivo que o assistente usou para esta execução.

metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.

tool_choice
tool_choice object

Controla qual ferramenta (se houver) é chamada pelo modelo. 'none' significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. 'auto' significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta. Especificando uma ferramenta como {'type': 'file_search'} ou {'type': 'function', 'function': {'name': 'my_function'}} força o modelo a chamar essa ferramenta.

max_prompt_tokens
max_prompt_tokens number

O número máximo de tokens de prompt especificados que foram usados ao longo da execução.

max_completion_tokens
max_completion_tokens number

O número máximo de tokens de conclusão especificados que foram usados ao longo da execução.

uso
usage object

Estatísticas de uso relacionadas à execução. Esse valor será nulo se a execução não estiver em um estado terminal (por exemplo, in_progress, enfileirada).

truncation_strategy
truncation_strategy object

Controla como um thread é truncado antes da execução.

formato_de_resposta
response_format string

O formato que o modelo deve gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

listMessageResponse

Nome Caminho Tipo Description
objeto
object string

Detalhes do tipo de objeto de resposta

dados
data array of Data

A lista de mensagens retornadas pelo serviço.

first_id
first_id string

Detalhes da primeira ID

last_id
last_id string

Detalhes da última ID

has_more
has_more boolean

Informa se há mais agentes lá

Dados

Nome Caminho Tipo Description
id
id string

O identificador, que pode ser referenciado em pontos de extremidade de API.

objeto
object string

O tipo de objeto, que é sempre assistente.

criado_em
created_at integer

O carimbo de data/hora do Unix (em segundos), para quando o assistente foi criado.

nome
name string

O nome do assistente. O comprimento máximo é de 256 caracteres.

descrição
description string

A descrição do assistente. O tamanho máximo é de 512 caracteres.

modelo
model string

Nome do nome da implantação do modelo a ser usado.

instructions
instructions string

As instruções do sistema que o assistente usa. O tamanho máximo é de 32.768 caracteres.

Ferramentas
tools array of tools

Uma lista de ferramentas habilitadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter ou função. Uma descrição de função pode ter no máximo 1.024 caracteres.

metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Útil para armazenar informações adicionais em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.

temperatura
temperature number

O valor padrão é 1. Determina qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

top_p
top_p number

O valor padrão é 1. Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

formato_de_resposta
response_format object

Especifica o formato que o modelo precisa gerar. Definir esse parâmetro como { 'type': 'json_object' } habilita o modo JSON, garantindo que a mensagem seja JSON válida.

tool_resources
tool_resources object

Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.

OpenAI.ServiceTier

Especifica o tipo de processamento usado para atender à solicitação.

  • Se definido como "automático", a solicitação será processada com a camada de serviço configurada nas configurações do Projeto. A menos que esteja configurado de outra forma, o Projeto usará "padrão".
  • Se definido como "padrão", a solicitação será processada com o preço padrão e o desempenho do modelo selecionado.
  • Se definido como 'flex' ou 'priority', a solicitação será processada com a camada de serviço correspondente. Entre em contato com as vendas para saber mais sobre o processamento de prioridade.
  • Quando não definido, o comportamento padrão é 'auto'.

Quando o service_tier parâmetro for definido, o corpo da resposta incluirá o service_tier valor com base no modo de processamento realmente usado para atender à solicitação. Esse valor de resposta pode ser diferente do valor definido no parâmetro.

Especifica o tipo de processamento usado para atender à solicitação.

  • Se definido como "automático", a solicitação será processada com a camada de serviço configurada nas configurações do Projeto. A menos que esteja configurado de outra forma, o Projeto usará "padrão".
  • Se definido como "padrão", a solicitação será processada com o preço padrão e o desempenho do modelo selecionado.
  • Se definido como 'flex' ou 'priority', a solicitação será processada com a camada de serviço correspondente. Entre em contato com as vendas para saber mais sobre o processamento de prioridade.
  • Quando não definido, o comportamento padrão é 'auto'.

Quando o service_tier parâmetro for definido, o corpo da resposta incluirá o service_tier valor com base no modo de processamento realmente usado para atender à solicitação. Esse valor de resposta pode ser diferente do valor definido no parâmetro.

OpenAI.Reasoning

somente modelos da série o

Opções de configuração para modelos de raciocínio.

Nome Caminho Tipo Description
Esforço
effort string
resumo
summary string

Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.

generate_summary
generate_summary string

Preterido: use summary em vez disso.

Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre auto, concise ou detailed.

OpenAI.ResponseTextFormatConfiguration

Nome Caminho Tipo Description
tipo
type OpenAI.ResponseTextFormatConfigurationType

Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.

OpenAI.ResponseTextFormatConfigurationType

Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.

Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.

OpenAI.Tool

Nome Caminho Tipo Description
tipo
type OpenAI.ToolType

Uma ferramenta que pode ser usada para gerar uma resposta.

OpenAI.ToolType

Uma ferramenta que pode ser usada para gerar uma resposta.

Uma ferramenta que pode ser usada para gerar uma resposta.

OpenAI.Prompt

Referência a um modelo de prompt e suas variáveis. Saiba mais.

Nome Caminho Tipo Description
id
id string

O identificador exclusivo do modelo de prompt a ser usado.

versão
version string

Versão opcional do modelo de prompt.

variables
variables OpenAI.ResponsePromptVariables

Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos.

OpenAI.Response

Nome Caminho Tipo Description
metadados
metadata object

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.

temperatura
temperature float

Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.

top_p
top_p float

Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.

usuário
user string

Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. Saiba mais.

nível de serviço
service_tier OpenAI.ServiceTier

Especifica o tipo de processamento usado para atender à solicitação.

  • Se definido como "automático", a solicitação será processada com a camada de serviço configurada nas configurações do Projeto. A menos que esteja configurado de outra forma, o Projeto usará "padrão".
  • Se definido como "padrão", a solicitação será processada com o preço padrão e o desempenho do modelo selecionado.
  • Se definido como 'flex' ou 'priority', a solicitação será processada com a camada de serviço correspondente. Entre em contato com as vendas para saber mais sobre o processamento de prioridade.
  • Quando não definido, o comportamento padrão é 'auto'.

Quando o service_tier parâmetro for definido, o corpo da resposta incluirá o service_tier valor com base no modo de processamento realmente usado para atender à solicitação. Esse valor de resposta pode ser diferente do valor definido no parâmetro.

top_logprobs
top_logprobs integer

Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.

previous_response_id
previous_response_id string

A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversa.

modelo
model string

A implantação do modelo a ser usada para a criação dessa resposta.

reasoning
reasoning OpenAI.Reasoning

somente modelos da série o

Opções de configuração para modelos de raciocínio.

em segundo plano
background boolean

Se a resposta do modelo deve ser executada em segundo plano. Saiba mais.

max_output_tokens
max_output_tokens integer

Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio.

max_tool_calls
max_tool_calls integer

O número máximo de chamadas totais das ferramentas internas que podem ser processadas em uma resposta. Esse número máximo se aplica a todas as chamadas de ferramenta internas, não por ferramenta individual. Todas as outras tentativas de chamar uma ferramenta pelo modelo serão ignoradas.

format
text.format OpenAI.ResponseTextFormatConfiguration
Ferramentas
tools array of OpenAI.Tool

Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

tool_choice
tool_choice

Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.

solicitação
prompt OpenAI.Prompt

Referência a um modelo de prompt e suas variáveis. Saiba mais.

truncation
truncation string

A estratégia de truncamento a ser usada para a resposta do modelo.

  • auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
  • disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.
id
id string

Identificador exclusivo para esta resposta.

objeto
object string

O tipo de objeto desse recurso – sempre definido como response.

status
status string

O status da geração de resposta. Um de completed, failed, in_progress, cancelled, queued ou incomplete.

criado_em
created_at unixtime

Unix timestamp (em segundos) de quando esta Resposta foi criada.

erro
error OpenAI.ResponseError

Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.

reason
incomplete_details.reason string

O motivo pelo qual a resposta está incompleta.

saída
output array of OpenAI.ItemResource

Uma matriz de itens de conteúdo gerados pelo modelo.

  • O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
  • Em vez de acessar o primeiro item na output matriz e supondo que seja uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade em que há suporte em SDKs.
instructions
instructions

Uma mensagem do sistema (ou desenvolvedor) inserida no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.

output_text
output_text string

Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum. Com suporte nos SDKs python e JavaScript.

uso
usage OpenAI.ResponseUsage

Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.

parallel_tool_calls
parallel_tool_calls boolean

Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo.

id
conversation.id string
agente
agent AgentId

OpenAI.ResponseError

Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.

Nome Caminho Tipo Description
codificar
code OpenAI.ResponseErrorCode

O código de erro da resposta.

mensagem
message string

Uma descrição do erro legível para humanos.

OpenAI.ResponseErrorCode

O código de erro da resposta.

O código de erro da resposta.

OpenAI.ItemResource

Item de conteúdo usado para gerar uma resposta.

Nome Caminho Tipo Description
tipo
type OpenAI.ItemType
id
id string

OpenAI.ItemType

OpenAI.ResponseUsage

Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.

Nome Caminho Tipo Description
input_tokens
input_tokens integer

O número de tokens de entrada.

cached_tokens
input_tokens_details.cached_tokens integer

O número de tokens recuperados do cache. Mais informações sobre o cache de prompts.

output_tokens
output_tokens integer

O número de tokens de saída.

reasoning_tokens
output_tokens_details.reasoning_tokens integer

O número de tokens de raciocínio.

total_tokens
total_tokens integer

O número total de tokens usados.

AgentId

Nome Caminho Tipo Description
tipo
type string
nome
name string

O nome do agente.

versão
version string

O identificador de versão do agente.

OpenAI.ResponsePromptVariables

Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos.

Nome Caminho Tipo Description
object

Mapa opcional de valores a serem substituídos por variáveis no seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos.

Ferramentas

Nome Caminho Tipo Description
nome
name string

Lista de ferramentas que podem ser usadas na execução.

fileIds

Nome Caminho Tipo Description
nome
name string

Lista de IDs de arquivo que podem ser usadas na execução.

objeto

Esse é o tipo 'object'.