Compartilhar via


Referência de visualização da API REST do Azure OpenAI no Microsoft Foundry Models

Observação

Este documento refere-se ao portal do Microsoft Foundry (clássico ).

🔍 Exiba a documentação do Microsoft Foundry (novo) para saber mais sobre o novo portal.

Este artigo fornece detalhes sobre a API REST de pontos de extremidade de inferência para o OpenAI do Azure.

Especificações de API

O gerenciamento e a interação com modelos e recursos do OpenAI do Azure são divididos em três superfícies principais da API:

  • Painel de controle
  • Plano de dados – criação
  • Plano de dados – inferência

Cada superfície/especificação da API encapsula um conjunto diferente de recursos do OpenAI do Azure. Cada API tem seu próprio conjunto exclusivo de versões de API de versão prévia e estável/disponibilidade geral (GA). Atualmente, lançamentos de versões prévias tendem a seguir uma cadência mensal.

Important

Agora há uma nova API de inferência de visualização. Saiba mais em nosso guia de ciclo de vida da API.

API Lançamento de versão prévia mais recente Versão de GA mais recente Specifications Description
Plano de controle 2025-07-01-preview 2025-06-01 Arquivos de especificação A API do painel de controle é usada para operações como a criação de recursos, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O painel de controle também controla o que é possível fazer com recursos como Azure Resource Manager, Bicep, Terraform e a CLI do Azure.
Plano de dados v1 preview v1 Arquivos de especificação A API do plano de dados controla operações de inferência e criação.

Authentication

O OpenAI do Azure fornece dois métodos de autenticação. Você pode usar chaves de API ou o Microsoft Entra ID.

  • Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API deverão incluir a Chave de API no cabeçalho HTTP da api-key. O Início Rápido fornece um tutorial de como fazer chamadas com esse tipo de autenticação.

  • Autenticação do Microsoft Entra ID: você pode autenticar uma chamada à API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o cabeçalho Authorization. O token fornecido deverá ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN. Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.

Controle de versão da API REST

As APIs de serviço são versões que usam o parâmetro de consulta api-version. Todas as versões seguem a estrutura de data AAAA-MM-DD. Por exemplo:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferência do plano de dados

O restante do artigo aborda a 2025-04-01-preview versão prévia da especificação de inferência do plano de dados do Azure OpenAI.

Se você procura a documentação sobre a versão mais recente da API em GA, consulte a API de inferência do plano de dados em GA mais recente

Conclusões – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
best_of inteiro Gera best_of conclusões do lado do servidor e retorna a “melhor” (aquela com a menor probabilidade de log por token). Os resultados não podem ser transmitidos.

Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos retornar – best_of deve ser maior que n.

Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop.
No 1
echo boolean Transmite o prompt de volta além da conclusão No False
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. No 0
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante.

Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado.
No None
logprobs inteiro Inclua as probabilidades de log nos logprobs tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retorna o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
No None
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo.
No 16
n inteiro Quantas conclusões devem ser geradas para cada prompt.

Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop.
No 1
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. No 0
solicitação cadeia de caracteres ou matriz O prompt para o qual gerar conclusões, codificadas como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo gerará como se fosse desde o início de um novo documento.
Yes
seed inteiro Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.

O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end.
No
stop cadeia de caracteres ou matriz Até quatro sequências em que a API deixa de gerar mais tokens. O texto retornado não conterá a sequência de parada. No
fluxo boolean Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor contendo apenas dados, à medida que ficarem disponíveis, com o fluxo sendo encerrado por uma mensagem data: [DONE]. Exemplo de código Python.
No False
suffix cadeia O sufixo que vem após a conclusão do texto inserido.

Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornam mais focado e determinístico.

Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos.
No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json createCompletionResponse

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Examples

Example

Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Inserções – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos de machine learning e algoritmos.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia A ID de implantação do modelo que foi implantado.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
dimensions inteiro O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. No
encoding_format cadeia O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64. Usa float como padrão. No
entrada cadeia de caracteres ou matriz Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e toda matriz deve ter 2.048 dimensões ou menos. Yes
input_type cadeia tipo de entrada de inserção de pesquisa a ser usada No
usuário cadeia Um identificador exclusivo representando o seu usuário final, que pode ajudar a monitorar e a detectar abusos. No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json objeto

Examples

Example

Retorne as inserções para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Conclusões de chat – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Cria uma conclusão para a mensagem de chat

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
audio objeto Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. No
└─ Formato enumeração Especifica o formato do áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16.

Valores possíveis: wav, , mp3, flac, opus, pcm16
No
└─ voz enumeração Especifica o tipo de voz. As vozes com suporte são alloy, echo, , fable, onyx, novae shimmer.

Valores possíveis: alloy, , echo, fable, onyx, , novashimmer
No
data_sources matriz As entradas de configuração para extensões de chat do OpenAI do Azure que as usam.
Essa especificação extra só é compatível com o Azure OpenAI.
No
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra.
No 0
function_call cadeia de caracteres ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual função (se houver) é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando não há funções presentes. auto é o padrão, caso haja funções presentes.
No
functions matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de desvio associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante.
No None
logprobs boolean Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. No False
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo.
No
messages matriz Uma lista de mensagens que resumem a conversa até agora. Exemplo de código Python. Yes
metadados objeto Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no dashboard de conclusões armazenadas. No
modalities ChatCompletionModalities Tipos de saída que você deseja que o modelo gere para esta solicitação.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]
No
n inteiro Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. No 1
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
previsão PredictionContent Configuração para uma Saída Prevista, que pode melhorar significativamente os tempos de resposta quando grandes partes da resposta do modelo já são conhecidas de antemão. Isso é mais comum ao regenerar um arquivo com apenas pequenas alterações na maior parte do conteúdo. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos.
No 0
reasoning_effort enumeração somente modelos o1

Restringe o esforço de raciocínio para modelos de raciocínio.

Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
Valores possíveis: low, , mediumhigh
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.

Definir para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.

A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
seed inteiro Esse recurso está em Versão Beta.
Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.
O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end.
No
stop cadeia de caracteres ou matriz Até 4 sequências em que a API para de gerar tokens adicionais.
No
armazenar boolean Se a saída dessa solicitação de conclusão de chat deve ou não ser armazenada para uso em nossos produtos de avaliação ou destilação de modelo. No
fluxo boolean Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor contendo apenas dados à medida que ficam disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. Exemplo de código Python.
No False
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornam mais focado e determinístico.

Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
tool_choice chatCompletionToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente. No
tools matriz Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos.
No
user_security_context userSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json objeto

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Examples

Example

Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão com base nos dados do Azure Search e na identidade gerenciada atribuída pelo sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão com base nos dados de vetor de imagem do Azure Search.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão com base nos dados de vetor do Azure Search, na mensagem anterior do assistente e na identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Mongo DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o Elasticsearch fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Cria uma conclusão para o recurso Pinecone fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transcreve o áudio no idioma de entrada.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
modelo cadeia ID do modelo a ser usado. As opções são gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1gpt-4o-transcribe-diarize. Yes
arquivo cadeia O objeto do arquivo de áudio a transcrever. Yes
linguagem cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. No
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0
timestamp_granularities[] matriz As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição. response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. No ['segment']

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json objeto
text/plain cadeia Texto transcrito no formato de saída (quando response_format era de text, vtt ou srt).

Examples

Example

Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transcreve e traduz o áudio de entrada em texto em inglês.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio a ser traduzido. Yes
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json objeto
text/plain cadeia Texto transcrito no formato de saída (quando response_format era um de texto, vtt ou srt).

Examples

Example

Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de Status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Fala – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Gera áudio a partir do texto de entrada.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
entrada cadeia O texto para o qual sintetizar áudio. O tamanho máximo é de 4.096 caracteres. Yes
response_format enumeração O formato no qual sintetizar o áudio.
Valores possíveis: mp3, , opus, aac, flac, , wavpcm
No
speed number A velocidade do áudio sintetizado. Selecione um valor de 0.25 a 4.0. 1.0 é o padrão. No 1.0
voice enumeração A voz a ser usada para sintetização de voz.
Valores possíveis: alloy, , echo, fable, onyx, , novashimmer
Yes

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/octet-stream cadeia

Examples

Example

Sintetiza o áudio a partir do texto fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Respostas: Código de Status: 200

{
  "body": "101010101"
}

Gerações de imagem – Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Gera um lote de imagens direto de uma legenda em uma determinada implantação de um modelo da série DALL-E ou gpt-image-1

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
em segundo plano imageBackground Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. No auto
n inteiro O número de imagens a serem geradas. Para o dall-e-3, há suporte apenas para n=1. No 1
output_compression inteiro O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com o formato de saída jpeg. No 100
output_format imagesOutputFormat O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. No png
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para a série gpt-image-1 e 4000 caracteres para dall-e-3 Yes
partial_images inteiro O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas de streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. 0
fluxo boolean Edite a imagem no modo de streaming. no false
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. Esse parâmetro não tem suporte para gpt-image-1modelos de série que sempre retornarão imagens codificadas em base64.
Valores possíveis: url, b64_json.
No url
size imageSize O tamanho das imagens geradas. No auto
estilo imageStyle O estilo das imagens geradas. Só há suporte para dall-e-3. No vivid
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. No

Responses

Código de Status: 200

Descrição: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de Status: padrão

Descrição: ocorreu um erro.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Cria imagens a partir de uma solicitação.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de Status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Gerações de imagem – Editar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Edita uma imagem a partir de uma legenda de texto em uma implementação do modelo gpt-image-1

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
deployment-id caminho Yes cadeia
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Content-Type: multipart/form-data

Name Tipo Description Required Default
imagem cadeia de caracteres ou matriz As imagens a serem editadas. Deve ser um arquivo de imagem com suporte ou uma matriz de imagens. Cada imagem deve ser um png ou um arquivo jpg inferior a 50 MB. Yes
fidelidade_de_entrada cadeia Controlar o esforço que o modelo exercerá para corresponder ao estilo e aos recursos, especialmente os recursos faciais, das imagens de entrada. Esse parâmetro só tem suporte para modelos da série gpt-image-1. Oferece suporte a high e low. no low.
máscara cadeia Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, menor que 4 MB e ter as mesmas dimensões que a imagem. No
n inteiro O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. No 1
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres. Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
partial_images O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas de streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente.
fluxo boolean Edite a imagem no modo de streaming. no false
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. No url
size imageSize O tamanho das imagens geradas. No auto
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. No

Responses

Código de Status: 200

Descrição: Ok

Content-Type Type Description
application/json generateImagesResponse

Código de Status: padrão

Descrição: ocorreu um erro.

Content-Type Type Description
application/json dalleErrorResponse

Lista – Assistentes

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Retorna uma lista de assistentes.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Retorna uma lista de assistentes.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Criar – Assistente

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Crie um assistente com um modelo e instruções.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
description cadeia A descrição do assistente. O tamanho máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia Yes
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a este assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
└─ armazenamentos_de_vetores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, retrieval ou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Crie um assistente com um modelo e instruções.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Obter – Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Recupera um assistente.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia A ID do assistente a ser recuperado.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Recupera um assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modificar – Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifica um assistente.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia A ID do assistente a ser modificada.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
description cadeia A descrição do assistente. O tamanho máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O tamanho máximo é de 32.768 caracteres.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia No
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Substitui a lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz Substitui o repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, retrieval ou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Modifica um assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Excluir – Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Excluir um assistente.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
assistant_id caminho Yes cadeia A ID do assistente a ser excluída.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Exclui um assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Criar – Thread

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Criar um thread.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
messages matriz Uma lista de mensagens para iniciar o thread. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No
└─ armazenamentos_de_vetores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Cria um thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Obter – Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Recupera um thread.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread a ser recuperado.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Recupera um thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modificar – Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifica um thread.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread a ser modificado. Somente o metadata pode ser modificado.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de Arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Modifica um thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Excluir – Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Excluir um thread.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread a ser excluído.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Exclui um thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Listar – Mensagens

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Retorna uma lista de mensagens para um determinado thread.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads aos quais as mensagens pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
run_id consulta No cadeia Filtre mensagens pela ID de execução que as gerou.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

Listar Mensagens

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Criar – Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Criar uma mensagem.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia O ID dos tópicos para os quais criar uma mensagem.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. No
conteúdo cadeia O conteúdo da mensagem. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
função cadeia A função da entidade que está criando a mensagem. Entre os valores permitidos estão:
- user: indica que a mensagem foi enviada por um usuário real e, geralmente, deve ser usada para representar mensagens geradas por usuários.
- assistant: indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Yes

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Criar uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Obter – Mensagem

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Recupere uma mensagem.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads aos quais essa mensagem pertence.
message_id caminho Yes cadeia A ID da mensagem a ser recuperada.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Recupere uma mensagem.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modificar – Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifica uma mensagem.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread ao qual essa mensagem pertence.
message_id caminho Yes cadeia A ID da mensagem a ser modificada.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Modifique uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Criar – Thread e Executar

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Crie um thread e execute-o em uma solicitação.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
assistant_id cadeia A ID do assistente a ser usada para executar esta execução. Yes
instructions cadeia Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. No
max_completion_tokens inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de conclusão especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE].
No
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
conversa createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.
No
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
tools matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json runObject

Examples

Example

Crie um thread e execute-o em uma solicitação.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Listar – Execuções

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Retorna uma lista de execuções que pertencem a um thread.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread à qual a execução pertence.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Retorna uma lista de execuções que pertencem a um thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Criar – Execução

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Crie uma execução.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread a ser executado.
include[] consulta No matriz Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
additional_instructions cadeia Acrescenta instruções adicionais ao final das instruções para a execução. Isto é útil para modificar o comportamento por execução sem substituir outras instruções. No
additional_messages matriz Acrescenta mensagens adicionais ao thread antes de criar a execução. No
assistant_id cadeia A ID do assistente a ser usada para executar esta execução. Yes
instructions cadeia Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. No
max_completion_tokens inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de conclusão especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia A ID do Modelo a ser usado para realizar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE].
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.
No
tools matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json runObject

Examples

Example

Crie uma execução.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Obter – Execução

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Recupera uma execução.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads executados.
run_id caminho Yes cadeia A ID da execução a ser recuperada.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json runObject

Examples

Example

Obtém uma execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modificar – Execução

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifica uma execução.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads executados.
run_id caminho Yes cadeia A ID da execução a ser modificada.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json runObject

Examples

Example

Modifica uma execução.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Enviar – Saídas de ferramenta para execução

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Quando uma execução tem o status: "requires_action" e o required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta quando todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID dos threads aos quais essa execução pertence.
run_id caminho Yes cadeia A ID da execução que requer o envio de saída da ferramenta.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE].
No
tool_outputs matriz Uma lista de ferramentas para as quais as saídas estão sendo enviadas. Yes

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json runObject

Examples

Example

Quando uma execução tem o status: "requires_action" e o required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta quando todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Cancelar – Execução

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Cancela uma execução que está in_progress.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread à qual essa execução pertence.
run_id caminho Yes cadeia A ID da execução a ser cancelada.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json runObject

Examples

Example

Cancela uma execução que está in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Lista – Etapas de Execução

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Retorna uma lista de etapas que pertencem a uma execução.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID da thread à qual as etapas de execução e executar pertencem.
run_id caminho Yes cadeia A ID da execução à qual as etapas de execução pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
api-version consulta Yes cadeia
include[] consulta No matriz Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Retorna uma lista de etapas que pertencem a uma execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Obter – Etapa de Execução

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Recupera uma etapa de execução.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
thread_id caminho Yes cadeia A ID do thread à qual a etapa de execução e executar pertence.
run_id caminho Yes cadeia A ID da execução à qual a etapa de execução pertence.
step_id caminho Yes cadeia A ID da etapa de execução a ser recuperada.
include[] consulta No matriz Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos.
api-version consulta Yes cadeia

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Recupera uma etapa de execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Lista – Repositórios de Vetores

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Retorna uma lista de repositórios de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Retorna uma lista de repositórios de vetores.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Criar – Repositório de Vetores

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Crie um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. Somente aplicável se file_ids não estiver vazio. No
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Cria um repositório de vetores.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Obter – Repositório de Vetores

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Recupera um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser recuperado.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Recupera um repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modificar – Repositório de Vetores

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifica um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser modificado.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Modifica um repositório de vetores.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Excluir – Repositório de Vetores

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Exclui um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser excluído.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Exclui um repositório de vetores.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Lista – Arquivos de Repositório de Vetores

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Retorna uma lista de arquivos de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual os arquivos pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
filtro consulta No cadeia
Valores possíveis: in_progress, , completed, failedcancelled
Filtrar por status do arquivo. Uma opção entre in_progress, completed, failed, cancelled.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retorna uma lista de arquivos de repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar – Arquivo de Repositório de Vetores

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Crie um arquivo de repositório de vetores anexando um Arquivo a um repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores para o qual criar um Arquivo.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. No
file_id cadeia Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. Yes

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Crie um arquivo de repositório de vetores anexando um Arquivo a um repositório de vetores.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Respostas: Código de Status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Obter – Arquivo de Repositório de Vetores

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Recupera um arquivo de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o arquivo pertence.
file_id caminho Yes cadeia A ID do arquivo que está sendo recuperado.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Recupera um arquivo de repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Excluir – Arquivo de Repositório de Vetores

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Exclui um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão do arquivo.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o arquivo pertence.
file_id caminho Yes cadeia A ID do arquivo a ser excluído.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Exclui um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão do arquivo.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Atualizar atributos em um arquivo de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o arquivo pertence.
file_id caminho Yes cadeia A ID do arquivo para atualizar atributos.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Yes

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreFileObject

Recuperar o conteúdo do arquivo do repositório vetor

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Recupere o conteúdo analisado de um arquivo de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores.
file_id caminho Yes cadeia A ID do arquivo no repositório de vetores.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Pesquisa no repositório de vetores

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Pesquise em um repositório de vetores partes relevantes com base em um filtro de atributos de consulta e arquivo.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores a ser pesquisado.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
filters ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. No
max_num_results inteiro O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50 inclusivo. No 10
consulta cadeia de caracteres ou matriz Uma cadeia de caracteres de consulta para uma pesquisa Yes
ranking_options objeto Opções de classificação para pesquisa. No
└─ ranker enumeração
Valores possíveis: auto, default-2024-11-15
No
└─ limite_de_pontuação number No 0
rewrite_query boolean Se deve reescrever a consulta em linguagem natural para a busca em vetores. No False

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Criar – Lote de Arquivos de Repositório de Vetores

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Crie um lote de arquivos de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores para o qual criar um lote de arquivos.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. No
file_ids matriz Uma lista de IDs de Arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. Yes

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Crie um lote de arquivos de repositório de vetores.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Respostas: Código de Status: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Obter – Lote de Arquivos de Repositório de Vetores

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Recupera um lote de arquivos de repositório de vetores.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o lote de arquivos pertence.
batch_id caminho Yes cadeia O ID do lote de arquivos que está sendo recuperado.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Recupera um lote de arquivos de repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Cancelar – Lote de Arquivos de Repositório de Vetores

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Cancele um lote de arquivos de repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual o lote de arquivos pertence.
batch_id caminho Yes cadeia A ID do lote de arquivos a ser cancelada.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Cancele um lote de arquivos de repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Lista – Arquivos de Lote de Arquivos de Repositório de Vetores

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Retorna uma lista de arquivos de repositório de vetores em um lote.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
vector_store_id caminho Yes cadeia A ID do repositório de vetores à qual os arquivos pertencem.
batch_id caminho Yes cadeia A ID do lote de arquivos à qual os arquivos pertencem.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
Classificar a ordem pelo carimbo de data/hora created_at dos objetos. asc para ordem crescente e desc para ordem decrescente.
after consulta No cadeia Um cursor para uso na paginação. after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista.
before consulta No cadeia Um cursor para uso na paginação. before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista.
filtro consulta No cadeia
Valores possíveis: in_progress, , completed, failedcancelled
Filtrar por status do arquivo. Uma opção entre in_progress, completed, failed, cancelled.
api-version consulta Yes cadeia versão da api

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retorna uma lista de arquivos de repositório de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Respostas: Código de Status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar – Sessão em Tempo Real

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime. Pode ser configurado com os mesmos parâmetros de sessão que o session.update evento cliente. Ele responde com um objeto de sessão, além de uma chave client_secret, que contém um token de API efêmero que pode ser usado para autenticar clientes de navegador na API em tempo real.

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits em uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de byte little-endian.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser definido como null para desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
Filtrar o áudio pode melhorar a precisão do VAD e da detecção de turnos (reduzindo falsos positivos) e o desempenho do modelo ao aprimorar a percepção do áudio de entrada.
No
└─ tipo enumeração Tipo de redução de ruído. near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada, que por padrão está desativada e pode ser ajustada para null para desativar quando ativada. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio do ponto de extremidade de transcrições e deve ser tratada como diretriz de conteúdo de áudio de entrada, em vez de precisamente o que o modelo ouviu. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição.
No
└─ idioma cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ modelo cadeia O modelo a ser usado para transcrição, as opções atuais sãogpt-4o-transcribe, , , gpt-4o-transcribe-diarizee gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15. whisper-1
No
└─ comando cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado.

Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. Usa inf como padrão.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
modelo cadeia O nome da implantação usada para essa sessão.
No
output_audio_format enumeração O formato do áudio de saída. As opções são pcm16, g711_ulaw ou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho.
No 0.8
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função.
No auto
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de turnos, seja por VAD do servidor ou VAD semântico. Isso pode ser configurado para null para desativar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário fica inaudível com uhhm, o modelo pontuará uma baixa probabilidade de fim de turno e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ criar_resposta boolean Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de parada do VAD.
No True
└─ ânsia enumeração Usado apenas para o modo semantic_vad. A ânsia do modelo de responder. low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, , medium, highauto
No
└─ resposta_de_interrupção boolean Se deve ou não interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorrer um evento de início de VAD.
No True
└─ prefix_padding_ms inteiro Usado apenas para o modo server_vad. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ duração_do_silêncio_ms inteiro Usado apenas para o modo server_vad. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário.
No
└─ limite number Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ tipo enumeração O tipo de detecção de turno.

Valores possíveis: server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Código de Status: 200

Descrição: sessão criada com êxito.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Criar - Sessão de Transcrição em Tempo Real

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime especificamente para transcrições em tempo real. Pode ser configurado com os mesmos parâmetros de sessão que o transcription_session.update evento cliente. Ele responde com um objeto de sessão, além de uma chave client_secret, que contém um token de API efêmero que pode ser usado para autenticar clientes de navegador na API em tempo real.

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
include matriz O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são:
- item.input_audio_transcription.logprobs
No
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits em uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de byte little-endian.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser definido como null para desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
Filtrar o áudio pode melhorar a precisão do VAD e da detecção de turnos (reduzindo falsos positivos) e o desempenho do modelo ao aprimorar a percepção do áudio de entrada.
No
└─ tipo enumeração Tipo de redução de ruído. near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição.
No
└─ idioma cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ modelo enumeração O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15whisper-1.

Valores possíveis: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└─ comando cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
turn_detection objeto Configuração para detecção de turnos, seja por VAD do servidor ou VAD semântico. Isso pode ser configurado para null para desativar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário fica inaudível com uhhm, o modelo pontuará uma baixa probabilidade de fim de turno e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ criar_resposta boolean Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de parada do VAD. Não disponível para sessões de transcrição.
No True
└─ ânsia enumeração Usado apenas para o modo semantic_vad. A ânsia do modelo de responder. low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, , medium, highauto
No
└─ resposta_de_interrupção boolean Se deve ou não interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorrer um evento de início de VAD. Não disponível para sessões de transcrição.
No True
└─ prefix_padding_ms inteiro Usado apenas para o modo server_vad. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ duração_do_silêncio_ms inteiro Usado apenas para o modo server_vad. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário.
No
└─ limite number Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ tipo enumeração O tipo de detecção de turno.

Valores possíveis: server_vad, semantic_vad
No

Responses

Código de Status: 200

Descrição: sessão criada com êxito.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Cria uma resposta de modelo.

Corpo da solicitação

Tipo de conteúdo: application/json

Name Tipo Description Required Default
include matriz No
entrada cadeia de caracteres ou matriz Entradas de modelo Yes
instructions cadeia Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado da conversa.
No
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo.
No True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversa.
No
reasoning Reasoning Opções de configuração para modelos de raciocínio. No
armazenar boolean Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API.
No True
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor.
Consulte a seção Streaming abaixo para obter mais informações.
No False
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais:
– Entradas e saídas de texto
– Saídas estruturadas
No
└─ Formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o
funcionalidades do modelo
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

API de respostas – itens de entrada

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Recupera uma resposta de modelo com a ID fornecida.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia A ID da resposta a ser recuperada.
include consulta No matriz Campos adicionais a serem incluídos na resposta. Consulte o include parâmetro para criação de resposta acima para obter mais informações.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json response

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

Excluir resposta

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Exclui uma resposta de modelo com a ID fornecida.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia A ID da resposta a ser excluída.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Código de status: 404

Descrição: Não encontrado

Content-Type Type Description
application/json error

Código de Status: padrão

Descrição: Serviço indisponível

Content-Type Type Description
application/json errorResponse

API de respostas – lista de itens de resposta

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Retorna uma lista de itens de entrada para uma determinada resposta.

Parâmetros de URI

Name In Required Tipo Description
ponto de extremidade caminho Yes URL da sequência de caracteres Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com
response_id caminho Yes cadeia A ID da resposta para a qual recuperar itens de entrada.
limit consulta No inteiro Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20.
ordem consulta No cadeia
Valores possíveis: asc, desc
A ordem para retornar os itens de entrada. O padrão é asc.
- asc: retorne os itens de entrada em ordem crescente.
- desc: retorne os itens de entrada em ordem decrescente.
after consulta No cadeia Uma ID de item para listar itens depois, usada na paginação.
before consulta No cadeia Uma ID de item para listar itens anteriormente, usada na paginação.

Cabeçalho da solicitação

Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.

Name Required Tipo Description
Authorization True cadeia exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.com

Tipo: oauth2
URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
escopo: https://cognitiveservices.azure.com/.default
api-key True cadeia Forneça a chave da API do OpenAI do Azure aqui

Responses

Código de Status: 200

Descrição: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Tipo Description Required Default
erro error No

errorBase

Name Tipo Description Required Default
codificar cadeia No
mensagem cadeia No

erro

Name Tipo Description Required Default
inner_error innerError Erro interno com detalhes adicionais. No
param cadeia No
tipo cadeia No

innerError

Erro interno com detalhes adicionais.

Name Tipo Description Required Default
codificar innerErrorCode Códigos de erro para o objeto de erro interno. No
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. No

innerErrorCode

Códigos de erro para o objeto de erro interno.

Property Value
Description Códigos de erro para o objeto de erro interno.
Type cadeia
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Tipo Description Required Default
erro dalleError No

dalleError

Name Tipo Description Required Default
inner_error dalleInnerError Erro interno com detalhes adicionais. No
param cadeia No
tipo cadeia No

dalleInnerError

Erro interno com detalhes adicionais.

Name Tipo Description Required Default
codificar innerErrorCode Códigos de erro para o objeto de erro interno. No
content_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. No
revised_prompt cadeia A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. No

contentFilterCompletionTextSpan

Descreve um intervalo dentro do texto de conclusão gerado. Deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.

Name Tipo Description Required Default
completion_end_offset inteiro Deslocamento do primeiro ponto de código UTF32 que é excluído do intervalo. Esse campo é sempre igual a completion_start_offset em intervalos vazios. Esse campo é sempre maior que completion_start_offset para intervalos não vazios. Yes
completion_start_offset inteiro Deslocamento do ponto de código UTF32 que inicia o intervalo. Yes

contentFilterResultBase

Name Tipo Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Tipo Description Required Default
filtered boolean Yes
severity cadeia No

contentFilterDetectedResult

Name Tipo Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Tipo Description Required Default
citation objeto No
└─ URL cadeia No
└─ Licença cadeia No

contentFilterDetectedWithCompletionTextSpansResult

Name Tipo Description Required Default
details matriz No

contentFilterIdResult

Name Tipo Description Required Default
filtered boolean Yes
id cadeia No

contentFilterResultsBase

Informações sobre os resultados da filtragem de conteúdo.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. No
erro errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados.

Name Tipo Description Required Default
details matriz No
filtered boolean Yes

promptFilterResult

Resultados de filtragem de conteúdo para uma única solicitação.

Name Tipo Description Required Default
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. No
prompt_index inteiro No

promptFilterResults

Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.

Nenhuma propriedade definida para esse componente.

dalleContentFilterResults

Informações sobre os resultados da filtragem de conteúdo.

Name Tipo Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

Name Tipo Description Required Default
custom_blocklists contentFilterDetailedResults Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Tipo Description Required Default
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. No 0
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. No
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). Isso não é compatível com modelos da série o1. No 4096
metadados objeto Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no dashboard de conclusões armazenadas. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. No 0
stop cadeia de caracteres ou matriz Até 4 sequências em que a API para de gerar tokens adicionais. No
armazenar boolean Se a saída dessa solicitação de conclusão de chat deve ou não ser armazenada para uso em nossos produtos de avaliação ou destilação de modelo. No
fluxo boolean Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos de servidor contendo apenas dados à medida que ficam disponíveis, e o fluxo é encerrado por uma mensagem data: [DONE]. No False
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.
Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. No

createCompletionRequest

Name Tipo Description Required Default
best_of inteiro Gera best_of conclusões do lado do servidor e retorna a “melhor” (aquela com a menor probabilidade de log por token). Os resultados não podem ser transmitidos.

Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos retornar. best_of deve ser maior que n.

Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop.
No 1
echo boolean Transmite o prompt de volta além da conclusão
No False
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra.
No 0
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante.

Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado.
No None
logprobs inteiro Inclua as probabilidades de log nos logprobs tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob do token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
No None
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo.
No 16
n inteiro Quantas conclusões devem ser geradas para cada prompt.

Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop.
No 1
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos.
No 0
solicitação cadeia de caracteres ou matriz Os prompts para gerar conclusões, codificados como uma sequência, uma matriz de sequências, uma matriz de tokens ou uma matriz de matrizes de tokens.

Observe que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento. Portanto, se uma solicitação não for especificada, o modelo será gerado como se fosse o início de um novo documento.
Yes
seed inteiro Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.

O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end.
No
stop cadeia de caracteres ou matriz Até 4 sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de parada.
No
fluxo boolean Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor contendo apenas dados, à medida que ficarem disponíveis, com o fluxo sendo encerrado por uma mensagem data: [DONE]. Exemplo de código Python.
No False
suffix cadeia O sufixo que vem após a conclusão do texto inserido.

Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos.
No

createCompletionResponse

Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham o mesmo formato (diferentemente do ponto de extremidade do chat).

Name Tipo Description Required Default
choices matriz A lista de opções de preenchimento que o modelo gerou para o prompt de entrada. Yes
created inteiro O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Yes
id cadeia Um identificador exclusivo do preenchimento. Yes
modelo cadeia O modelo usado para conclusão. Yes
objeto enumeração O tipo de objeto, que é sempre "text_completion"
Valores possíveis: text_completion
Yes
prompt_filter_results promptFilterResults Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. No
system_fingerprint cadeia Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo.
No
uso completionUsage Estatísticas de uso para a solicitação de preenchimento. No

createChatCompletionRequest

Name Tipo Description Required Default
audio objeto Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. No
└─ Formato enumeração Especifica o formato do áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16.

Valores possíveis: wav, , mp3, flac, opus, pcm16
No
└─ voz enumeração Especifica o tipo de voz. As vozes com suporte são alloy, echo, , fable, onyx, novae shimmer.

Valores possíveis: alloy, , echo, fable, onyx, , novashimmer
No
data_sources matriz As entradas de configuração para extensões de chat do OpenAI do Azure que as usam.
Essa especificação adicional só é compatível com o OpenAI do Azure.
No
frequency_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra.
No 0
function_call cadeia de caracteres ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual função (se houver) é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando não há funções presentes. auto é o padrão, caso haja funções presentes.
No
functions matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
No
logit_bias objeto Modifica a probabilidade de tokens especificados que aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de desvio associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante.
No None
logprobs boolean Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. No False
max_completion_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. No
max_tokens inteiro O número máximo de tokens que podem ser gerados na conclusão.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo.
No
messages matriz Uma lista de mensagens que resumem a conversa até agora. Exemplo de código Python. Yes
metadados objeto Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no dashboard de conclusões armazenadas. No
modalities ChatCompletionModalities Tipos de saída que você deseja que o modelo gere para esta solicitação.
A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]
No
n inteiro Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. No 1
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
previsão PredictionContent Configuração para uma Saída Prevista, que pode melhorar significativamente os tempos de resposta quando grandes partes da resposta do modelo já são conhecidas de antemão. Isso é mais comum ao regenerar um arquivo com apenas pequenas alterações na maior parte do conteúdo. No
presence_penalty number Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos.
No 0
reasoning_effort enumeração somente modelos o1

Restringe o esforço de raciocínio para modelos de raciocínio.

Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
Valores possíveis: low, , mediumhigh
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido.

A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
seed inteiro Esse recurso está em Versão Beta.
Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.
O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end.
No
stop cadeia de caracteres ou matriz Até 4 sequências em que a API para de gerar tokens adicionais.
No
armazenar boolean Se a saída dessa solicitação de conclusão de chat deve ou não ser armazenada para uso em nossos produtos de avaliação ou destilação de modelo. No
fluxo boolean Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor contendo apenas dados à medida que ficam disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. Exemplo de código Python.
No False
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
tool_choice chatCompletionToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente. No
tools matriz Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções.
No
top_logprobs inteiro Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos.
No
user_security_context userSecurityContext O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. No

userSecurityContext

O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem.

Name Tipo Description Required Default
application_name cadeia O nome do aplicativo. Informações pessoais confidenciais não devem ser incluídas nesse campo. No
end_user_id cadeia Esse identificador é a ID de objeto de usuário do Microsoft Entra ID (antigo Azure Active Directory) usado para autenticar usuários finais no aplicativo de IA generativa. Informações pessoais confidenciais não devem ser incluídas nesse campo. No
end_user_tenant_id cadeia A ID do locatário do Microsoft 365 à qual o usuário final pertence. É obrigatório quando o aplicativo de IA generativa é multilocatário. No
source_ip cadeia Captura o endereço IP original do cliente, aceitando os formatos IPv4 e IPv6. No

chatCompletionFunctions

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. Yes
parameters FunctionParameters Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No

chatCompletionFunctionCallOption

Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes

chatCompletionFunctionParameters

Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.

Nenhuma propriedade definida para esse componente.

chatCompletionRequestMessage

Esse componente pode ser um dos seguintes:

ChatCompletionRequestDeveloperMessage

Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Nos modelos o1 e mais recentes, as mensagens developer substituem as mensagens system anteriores.

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do desenvolvedor. Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso, developer.
Valores possíveis: developer
Yes

chatCompletionRequestSystemMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do sistema. Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso, system.
Valores possíveis: system
Yes

chatCompletionRequestUserMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do usuário.
Yes
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
função enumeração A função do autor das mensagens, nesse caso, user.
Valores possíveis: user
Yes

chatCompletionRequestAssistantMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado.
No
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
└─ Argumentos cadeia Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. No
└─ nome cadeia O nome da função a ser chamada. No
name cadeia Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. No
refusal cadeia A mensagem de recusa do assistente. No
função enumeração A função do autor das mensagens, nesse caso, assistant.
Valores possíveis: assistant
Yes
tool_calls chatCompletionMessageToolCalls As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No

chatCompletionRequestToolMessage

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo da mensagem da ferramenta. Yes
função enumeração A função do autor das mensagens, nesse caso, tool.
Valores possíveis: tool
Yes
tool_call_id cadeia Chamada de ferramenta à qual esta mensagem está respondendo. Yes

chatCompletionRequestFunctionMessage

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem de função. Yes
name cadeia O nome da função a ser chamada. Yes
função enumeração A função do autor das mensagens, nesse caso, function.
Valores possíveis: function
Yes

chatCompletionRequestDeveloperMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestSystemMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestUserMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestAssistantMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestToolMessageContentPart

Esse componente pode ser um dos seguintes:

chatCompletionRequestMessageContentPartText

Name Tipo Description Required Default
enviar SMS cadeia O conteúdo do texto. Yes
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: text
Yes

chatCompletionRequestMessageContentPartAudio

Name Tipo Description Required Default
input_audio objeto Yes
└─ dados cadeia Dados de áudio codificados em Base64. No
└─ Formato enumeração O formato dos dados de áudio codificados. Atualmente compatível com "wav" e "mp3".

Valores possíveis: wav, mp3
No
tipo enumeração O tipo da parte de conteúdo. Sempre input_audio.
Valores possíveis: input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Tipo Description Required Default
image_url objeto Yes
└─ detalhe enumeração Especifica o nível de detalhes da imagem. Saiba mais no Guia do Visão.
Valores possíveis: auto, , lowhigh
No
└─ URL cadeia Uma URL da imagem ou os dados de imagem codificados em base64. No
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Tipo Description Required Default
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: refusal
Yes

azureChatExtensionConfiguration

Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.

###Discriminador para azureChatExtensionConfiguration

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Tipo Description Required Default
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Yes

azureChatExtensionType

Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.

Property Value
Description Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Type cadeia
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do OpenAI do Azure.

Name Tipo Description Required Default
parameters azureSearchChatExtensionParameters Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Yes

azureSearchChatExtensionParameters

Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure.

Name Tipo Description Required Default
allow_partial_result boolean Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. No False
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource No
ponto de extremidade cadeia O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. Yes
fields_mapping azureSearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search. No
filtro cadeia Filtro de pesquisa. No
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice a ser usado conforme disponível no recurso referenciado do Azure Search. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
query_type azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure. No
semantic_configuration cadeia A configuração semântica adicional da consulta. No
strictness inteiro A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número máximo de documentos configurados a serem apresentados para a consulta configurada. No

azureSearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. No
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser utilizado como um caminho de arquivo. No
image_vector_fields matriz Os nomes dos campos que representam dados vetoriais de imagens. No
title_field cadeia O nome do campo de índice a ser utilizado como título. No
url_field cadeia O nome do campo de índice a ser utilizado como URL. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. No

azureSearchQueryType

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.

Property Value
Description O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.
Type cadeia
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do OpenAI do Azure.

Name Tipo Description Required Default
parameters azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o vCore do Azure Cosmos DB for MongoDB. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Yes

azureCosmosDBChatExtensionParameters

Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o vCore do Azure Cosmos DB for MongoDB.

Name Tipo Description Required Default
allow_partial_result boolean Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. No False
autenticação onYourDataConnectionStringAuthenticationOptions As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão. Yes
container_name cadeia O nome do contêiner de recursos do Azure Cosmos DB. Yes
database_name cadeia O nome do banco de dados MongoDB vCore a ser usado com o Azure Cosmos DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. Yes
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice do MongoDB vCore a ser usado com o Azure Cosmos DB. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número máximo de documentos configurados a serem apresentados para a consulta configurada. No

azureCosmosDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser utilizado como um caminho de arquivo. No
title_field cadeia O nome do campo de índice a ser utilizado como título. No
url_field cadeia O nome do campo de índice a ser utilizado como URL. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Yes

elasticsearchChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do OpenAI do Azure.

Name Tipo Description Required Default
parameters elasticsearchChatExtensionParameters Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Yes

elasticsearchChatExtensionParameters

Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.

Name Tipo Description Required Default
allow_partial_result boolean Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. No False
autenticação onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource No
ponto de extremidade cadeia O ponto de extremidade do Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. No
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice do Elasticsearch®. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
query_type elasticsearchQueryType O tipo de consulta de recuperação do Elasticsearch® que deve ser executado ao usá-lo como uma extensão de chat do OpenAI do Azure. No
strictness inteiro A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número máximo de documentos configurados a serem apresentados para a consulta configurada. No

elasticsearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. No
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser utilizado como um caminho de arquivo. No
title_field cadeia O nome do campo de índice a ser utilizado como título. No
url_field cadeia O nome do campo de índice a ser utilizado como URL. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. No

elasticsearchQueryType

O tipo de consulta de recuperação do Elasticsearch® que deve ser executado ao usá-lo como uma extensão de chat do OpenAI do Azure.

Property Value
Description O tipo de consulta de recuperação do Elasticsearch® que deve ser executado ao usá-lo como uma extensão de chat do OpenAI do Azure.
Type cadeia
Values simple
vector

mongoDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat do OpenAI do Azure.

Name Tipo Description Required Default
parameters mongoDBChatExtensionParameters Parâmetros a serem usados ao configurar o OpenAI do Azure nas extensões de chat Your Data ao usar o Mongo DB No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Yes

mongoDBChatExtensionParameters

Parâmetros a serem usados ao configurar o OpenAI do Azure nas extensões de chat Your Data ao usar o Mongo DB

Name Tipo Description Required Default
allow_partial_result boolean Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. No False
app_name cadeia O nome do aplicativo do Mongo DB. Yes
autenticação onYourDataUsernameAndPasswordAuthenticationOptions As opções de autenticação da OpenAI do Azure On Your Data ao usar uma cadeia um número de usuário e uma senha. Yes
collection_name cadeia O nome da Coleção do Mongo DB. Yes
database_name cadeia O nome do banco de dados do Mongo DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Yes
ponto de extremidade cadeia O nome do ponto de extremidade do cluster do Mongo DB. Yes
fields_mapping mongoDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Mongo DB. Yes
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice do Mongo DB. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número máximo de documentos configurados a serem apresentados para a consulta configurada. No

mongoDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Mongo DB.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser utilizado como um caminho de arquivo. No
title_field cadeia O nome do campo de índice a ser utilizado como título. No
url_field cadeia O nome do campo de índice a ser utilizado como URL. No
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Yes

pineconeChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Pinecone ao usá-lo como uma extensão de chat do OpenAI do Azure.

Name Tipo Description Required Default
parameters pineconeChatExtensionParameters Parâmetros para configurar extensões de chat do Pinecone no OpenAI do Azure. No
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Yes

pineconeChatExtensionParameters

Parâmetros para configurar extensões de chat do Pinecone no OpenAI do Azure.

Name Tipo Description Required Default
allow_partial_result boolean Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. No False
autenticação onYourDataApiKeyAuthenticationOptions As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure nos Seus Dados ao aplicar a busca em vetores, que se baseia em um nome de implantação de modelo de inserção interna no mesmo recurso do OpenAI do Azure. Yes
ambiente cadeia O nome do ambiente Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Pinecone. Yes
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. No
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. No
index_name cadeia O nome do índice do banco de dados Pinecone. Yes
max_search_queries inteiro O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. No
strictness inteiro A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. No
top_n_documents inteiro O número máximo de documentos configurados a serem apresentados para a consulta configurada. No

pineconeFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Pinecone.

Name Tipo Description Required Default
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Yes
content_fields_separator cadeia O padrão separador que os campos de conteúdo devem usar. No
filepath_field cadeia O nome do campo de índice a ser utilizado como um caminho de arquivo. No
title_field cadeia O nome do campo de índice a ser utilizado como título. No
url_field cadeia O nome do campo de índice a ser utilizado como URL. No

onYourDataAuthenticationOptions

As opções de autenticação do OpenAI do Azure On Your Data.

Discriminador para onYourDataAuthenticationOptions

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes

onYourDataContextProperty

A propriedade de contexto.

Property Value
Description A propriedade de contexto.
Type cadeia
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.

Property Value
Description Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.
Type cadeia
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API.

Name Tipo Description Required Default
chave cadeia A chave de API a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes

onYourDataConnectionStringAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão.

Name Tipo Description Required Default
connection_string cadeia A cadeia de conexão a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

As opções de autenticação para o OpenAI do Azure On Your Data ao usar um par de chave e de Identificação da chave do Elasticsearch.

Name Tipo Description Required Default
chave cadeia A chave Elasticsearch a ser usada para autenticação. No
key_id cadeia O ID da chave do Elasticsearch a ser usado para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes

onYourDataEncodedApiKeyAuthenticationOptions

As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave de API codificada pelo Elasticsearch.

Name Tipo Description Required Default
encoded_api_key cadeia A chave de API codificada do Elasticsearch a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes

onYourDataAccessTokenAuthenticationOptions

As opções de autenticação para o OpenAI do Azure Em Seus Dados ao usar o token de acesso.

Name Tipo Description Required Default
access_token cadeia O token de acesso a ser utilizado para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo sistema.

Name Tipo Description Required Default
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.

Name Tipo Description Required Default
managed_identity_resource_id cadeia A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

As opções de autenticação da OpenAI do Azure On Your Data ao usar uma cadeia um número de usuário e uma senha.

Name Tipo Description Required Default
senha cadeia A senha. a ser usado para autenticação. No
tipo onYourDataAuthenticationType Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. Yes
nome de usuário cadeia O nome de usuário a ser usado para autenticação. No

onYourDataVectorizationSource

Uma representação abstrata de uma fonte de vetorização para o OpenAI do Azure On Your Data com busca em vetores.

Esse componente usa a propriedade type para discriminar entre diferentes tipos:

Valor do tipo Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. Yes

onYourDataVectorizationSourceType

Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores.

Property Value
Description Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores.
Type cadeia
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em uma chamada pública de ponto de extremidade do OpenAI do Azure para inserções.

Name Tipo Description Required Default
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions No
dimensions inteiro O número de dimensões que as inserções devem ter. Só há suporte em modelos text-embedding-3 e posteriores. No
ponto de extremidade cadeia Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas. O número deve estar no formato https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta api-version não é permitido. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. Yes

onYourDataDeploymentNameVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em um nome de implantação de modelo de inserções interno no mesmo recurso do OpenAI do Azure.

Name Tipo Description Required Default
deployment_name cadeia Especifica o nome da implantação de modelo a ser usada para vetorização. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas. No
dimensions inteiro O número de dimensões que as inserções devem ter. Só há suporte em modelos text-embedding-3 e posteriores. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. Yes

onYourDataIntegratedVectorizationSource

Representa o vetorizador integrado definido dentro do recurso de pesquisa.

Name Tipo Description Required Default
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. Yes

onYourDataModelIdVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em uma ID do modelo de serviço de pesquisa. Atualmente, só há suporte para Elasticsearch®.

Name Tipo Description Required Default
model_id cadeia Especifica o ID do modelo a ser usado para vetorização. Essa ID do modelo deve ser definida no serviço de pesquisa. No
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. Yes

azureChatExtensionsMessageContext

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.

Name Tipo Description Required Default
all_retrieved_documents matriz Todos os documentos recuperados. No
citations matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. No
intenção cadeia A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. No

citation

informações de citação para uma mensagem de resposta de preenchimento de chat.

Name Tipo Description Required Default
chunk_id cadeia A ID da parte da citação. No
conteúdo cadeia O conteúdo da citação. Yes
filepath cadeia O caminho do arquivo da citação. No
rerank_score number A pontuação de reclassificação do documento recuperado. No
title cadeia O título da citação. No
url cadeia A URL da citação. No

retrievedDocument

O documento recuperado.

Name Tipo Description Required Default
chunk_id cadeia A ID da parte da citação. No
conteúdo cadeia O conteúdo da citação. Yes
data_source_index inteiro O índice da fonte de dados. No
filepath cadeia O caminho do arquivo da citação. No
filter_reason filterReason O motivo da filtragem do documento recuperado. No
original_search_score number A pontuação de pesquisa original do documento recuperado. No
rerank_score number A pontuação de reclassificação do documento recuperado. No
search_queries matriz As consultas de pesquisa usadas para recuperar o documento. No
title cadeia O título da citação. No
url cadeia A URL da citação. No

filterReason

O motivo da filtragem do documento recuperado.

Property Value
Description O motivo da filtragem do documento recuperado.
Type cadeia
Values score
rerank

chatCompletionMessageToolCall

Name Tipo Description Required Default
função objeto A função chamada pelo modelo. Yes
└─ Argumentos cadeia Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. No
└─ nome cadeia O nome da função a ser chamada. No
id cadeia A ID da chamada da ferramenta. Yes
tipo toolCallType O tipo da chamada de ferramenta, nesse caso, function. Yes

toolCallType

O tipo da chamada de ferramenta, nesse caso, function.

Property Value
Description O tipo da chamada de ferramenta, nesse caso, function.
Type cadeia
Values function

chatCompletionRequestMessageTool

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem. No
tool_call_id cadeia Chamada de ferramenta à qual esta mensagem está respondendo. No

chatCompletionRequestMessageFunction

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem. No
name cadeia O conteúdo da mensagem. No
função enumeração A função do autor das mensagens, nesse caso, function.
Valores possíveis: function
No

createChatCompletionResponse

Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Name Tipo Description Required Default
choices matriz Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. Yes
created inteiro O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Yes
id cadeia Identificador exclusivo para conclusão de chat. Yes
modelo cadeia O modelo usado para a conclusão do chat. Yes
objeto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Yes
prompt_filter_results promptFilterResults Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. No
system_fingerprint cadeia Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo.
No
uso completionUsage Estatísticas de uso para a solicitação de preenchimento. No

createChatCompletionStreamResponse

Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Name Tipo Description Required Default
choices matriz Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1.
Yes
created inteiro O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Cada parte tem o mesmo carimbo de data/hora. Yes
id cadeia Identificador exclusivo para conclusão de chat. Cada parte tem a mesma ID. Yes
modelo cadeia O modelo para gerar a conclusão. Yes
objeto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Yes
system_fingerprint cadeia Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.
Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo.
No

chatCompletionStreamResponseDelta

Um delta de conclusão de chat gerado por respostas de modelo transmitidas.

Name Tipo Description Required Default
conteúdo cadeia O conteúdo da mensagem de parte. No
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
└─ Argumentos cadeia Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. No
└─ nome cadeia O nome da função a ser chamada. No
refusal cadeia A mensagem de recusa gerada pelo modelo. No
função enumeração A função do autor dessa mensagem.
Valores possíveis: system, , user, assistanttool
No
tool_calls matriz No

chatCompletionMessageToolCallChunk

Name Tipo Description Required Default
função objeto No
└─ Argumentos cadeia Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. No
└─ nome cadeia O nome da função a ser chamada. No
id cadeia A ID da chamada da ferramenta. No
indexar inteiro Yes
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: function
No

chatCompletionStreamOptions

Opções para resposta de streaming. Defina isso somente quando você definir stream: true.

Name Tipo Description Required Default
include_usage boolean Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE]. O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia. Todas as outras partes também incluirão um campo usage, mas com um valor nulo.
No

chatCompletionChoiceLogProbs

Informações de probabilidade de log para a escolha.

Name Tipo Description Required Default
conteúdo matriz Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. Yes
refusal matriz Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. No

chatCompletionTokenLogprob

Name Tipo Description Required Default
bytes matriz Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser null se não houver representação de bytes para o token. Yes
logprob number A probabilidade de log desse token. Yes
símbolo cadeia O token. Yes
top_logprobs matriz Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de top_logprobs retornados solicitados. Yes

chatCompletionResponseMessage

Uma mensagem de conclusão de chat gerada pelo modelo.

Name Tipo Description Required Default
audio objeto Se a modalidade de saída de áudio for solicitada, esse objeto conterá dados sobre a resposta de áudio do modelo. No
└─ dados cadeia Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação.
No
└─ data_de_expiração inteiro O carimbo de data/hora Unix (em segundos) para quando essa resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos.
No
└─ id cadeia Identificador único para essa resposta de áudio. No
└─ transcrição cadeia Transcrição do áudio gerado pelo modelo. No
conteúdo cadeia O conteúdo da mensagem. Yes
contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente. No
function_call chatCompletionFunctionCall Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. No
refusal cadeia A mensagem de recusa gerada pelo modelo. Yes
função chatCompletionResponseMessageRole A função do autor da mensagem de resposta. Yes
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. No

chatCompletionResponseMessageRole

A função do autor da mensagem de resposta.

Property Value
Description A função do autor da mensagem de resposta.
Type cadeia
Values assistant

chatCompletionToolChoiceOption

Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente.

Esse componente pode ser um dos seguintes:

chatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
função objeto Yes
└─ nome cadeia O nome da função a ser chamada. No
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: function
Yes

ParallelToolCalls

Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.

Nenhuma propriedade definida para esse componente.

PredictionContent

Conteúdo estático de saída prevista, como o conteúdo de um arquivo de texto que está sendo regenerado.

Name Tipo Description Required Default
conteúdo cadeia de caracteres ou matriz O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo poderá ser retornada muito mais rápido. Yes
tipo enumeração O tipo de conteúdo previsto que você deseja fornecer. No momento, esse tipo é sempre content.
Valores possíveis: content
Yes

chatCompletionMessageToolCalls

As chamadas de ferramenta geradas pelo modelo, como chamadas de função.

Nenhuma propriedade definida para esse componente.

ChatCompletionModalities

Tipos de saída que você deseja que o modelo gere para esta solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]

Nenhuma propriedade definida para esse componente.

chatCompletionFunctionCall

Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo.

Name Tipo Description Required Default
arguments cadeia Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. Yes
name cadeia O nome da função a ser chamada. Yes

completionUsage

Estatísticas de uso para a solicitação de preenchimento.

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens na conclusão gerada. Yes
completion_tokens_details objeto Divisão de tokens usados em uma conclusão. No
└─ tokens_de_predição_aceitos inteiro Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. No
└─ audio_tokens inteiro Tokens de entrada de áudio gerados pelo modelo. No
└─ tokens_de_raciocínio inteiro Tokens gerados pelo modelo para raciocínio. No
└─ rejected_prediction_tokens inteiro Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, assim como os tokens de raciocínio, esses tokens ainda são contabilizados no total de tokens de conclusão para fins de cobrança, saída e limites da janela de contexto. No
prompt_tokens inteiro Número de tokens no prompt. Yes
prompt_tokens_details objeto Detalhes dos tokens de prompt. No
└─ audio_tokens inteiro Tokens de entrada de áudio presentes na solicitação. No
└─ tokens em cache inteiro O número de tokens de prompt armazenados em cache. No
total_tokens inteiro Número total de tokens utilizados na solicitação (prompt + conclusão). Yes

chatCompletionTool

Name Tipo Description Required Default
função FunctionObject Yes
tipo enumeração O tipo da ferramenta. Atualmente, há suporte apenas para function.
Valores possíveis: function
Yes

FunctionParameters

Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.

Nenhuma propriedade definida para esse componente.

FunctionObject

Name Tipo Description Required Default
description cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
name cadeia O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. Yes
parameters FunctionParameters Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
No
strict boolean Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no campo parameters. Somente um subconjunto de esquema JSON tem suporte quando strict é true. No False

ResponseFormatText

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta que está sendo definido: text
Valores possíveis: text
Yes

ResponseFormatJsonObject

Name Tipo Description Required Default
tipo enumeração O tipo de formato de resposta que está sendo definido: json_object
Valores possíveis: json_object
Yes

ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de esquema JSON.

Nenhuma propriedade definida para esse componente.

ResponseFormatJsonSchema

Name Tipo Description Required Default
json_schema objeto Yes
└─ descrição cadeia Uma descrição de para que serve o formato de resposta, usada pelo modelo para determinar a forma de responder no formato. No
└─ nome cadeia O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. No
└─ esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON. No
└─ rigoroso boolean Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. No False
tipo enumeração O tipo de formato de resposta que está sendo definido: json_schema
Valores possíveis: json_schema
Yes

chatCompletionChoiceCommon

Name Tipo Description Required Default
finish_reason cadeia No
indexar inteiro No

createTranslationRequest

Solicitação de tradução.

Name Tipo Description Required Default
arquivo cadeia O arquivo de áudio a ser traduzido. Yes
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0

audioResponse

Resposta de tradução ou transcrição quando response_format foi json

Name Tipo Description Required Default
enviar SMS cadeia Texto traduzido ou transcrito. Yes

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Name Tipo Description Required Default
duration number Duration. No
linguagem cadeia Language. No
segments matriz No
tarefa cadeia Tipo de tarefa de áudio. No
enviar SMS cadeia Texto traduzido ou transcrito. Yes
words matriz No

audioResponseFormat

Define o formato da saída.

Property Value
Description Define o formato da saída.
Type cadeia
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Solicitação de transcrição.

Name Tipo Description Required Default
arquivo cadeia O objeto do arquivo de áudio a transcrever. Yes
linguagem cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. No
solicitação cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. No
response_format audioResponseFormat Define o formato da saída. No
temperature number A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. No 0
timestamp_granularities[] matriz As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição. response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. No ['segment']

audioSegment

Segmento da transcrição ou tradução.

Name Tipo Description Required Default
avg_logprob number Probabilidade de log média. No
compression_ratio number Taxa de compactação. No
end number Deslocamento final do segmento. No
id inteiro Identificador de segmento. No
no_speech_prob number Probabilidade de “sem fala”. No
seek number Deslocamento do segmento. No
start number O deslocamento de início do segmento. No
temperature number Temperature. No
enviar SMS cadeia Texto do segmento. No
tokens matriz Tokens do texto. No

audioWord

Palavra de transcrição ou tradução.

Name Tipo Description Required Default
end number Deslocamento de término da palavra. No
start number O deslocamento de início da palavra. No
palavra cadeia Word No

createSpeechRequest

Solicitação de fala.

Name Tipo Description Required Default
entrada cadeia O texto para o qual sintetizar áudio. O tamanho máximo é de 4.096 caracteres. Yes
response_format enumeração O formato no qual sintetizar o áudio.
Valores possíveis: mp3, , opus, aac, flac, , wavpcm
No
speed number A velocidade do áudio sintetizado. Selecione um valor de 0.25 a 4.0. 1.0 é o padrão. No 1.0
voice enumeração A voz a ser usada para sintetização de voz.
Valores possíveis: alloy, , echo, fable, onyx, , novashimmer
Yes

imageQuality

A qualidade da imagem que será gerada.

Property Value
Description A qualidade da imagem que será gerada.
Type cadeia
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

O formato no qual as imagens geradas são retornadas.

Property Value
Description O formato no qual as imagens geradas são retornadas.
Type cadeia
Default url
Values url
b64_json

imagesOutputFormat

O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos de série.

Property Value
Description O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1.
Type cadeia
Default png
Values png
jpeg

imageSize

O tamanho das imagens geradas.

Property Value
Description O tamanho das imagens geradas.
Type cadeia
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

O estilo das imagens geradas. Só há suporte para dall-e-3.

Property Value
Description O estilo das imagens geradas. Só há suporte para dall-e-3.
Type cadeia
Default vivid
Values vivid
natural

imageBackground

Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1.

Property Value
Description Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1.
Type cadeia
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Tipo Description Required Default
em segundo plano imageBackground Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. No auto
n inteiro O número de imagens a serem geradas. Para o dall-e-3, há suporte apenas para n=1. No 1
output_compression inteiro O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com o formato de saída jpeg. No 100
output_format imagesOutputFormat O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. No png
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1 e 4.000 caracteres para dall-e-3 Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. Só há suporte para dall-e-3. No url
size imageSize O tamanho das imagens geradas. No auto
estilo imageStyle O estilo das imagens geradas. Só há suporte para dall-e-3. No vivid
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. No

imageEditsRequest

Name Tipo Description Required Default
imagem cadeia de caracteres ou matriz As imagens a serem editadas. Deve ser um arquivo de imagem com suporte ou uma matriz de imagens. Cada imagem deve ser um png ou um arquivo jpg inferior a 25 MB. Yes
máscara cadeia Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, menor que 4 MB e ter as mesmas dimensões que a imagem. No
n inteiro O número de imagens a serem geradas. No 1
solicitação cadeia Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres. Yes
quality imageQuality A qualidade da imagem que será gerada. No auto
response_format imagesResponseFormat O formato no qual as imagens geradas são retornadas. No url
size imageSize O tamanho das imagens geradas. No auto
usuário cadeia Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. No

generateImagesResponse

Name Tipo Description Required Default
created inteiro O carimbo de data/hora UNIX quando a operação foi criada. Yes
dados matriz Os dados do resultado da operação, se bem-sucedida Yes
uso imageGenerationsUsage Representa os detalhes de uso do token para solicitações de geração de imagem. Somente para modelos da série gpt-image-1. No

imageResult

A URL da imagem ou a imagem codificada, se foi bem-sucedida, e um erro se não foi.

Name Tipo Description Required Default
b64_json cadeia A imagem codificada em base64 No
content_filter_results dalleContentFilterResults Informações sobre os resultados da filtragem de conteúdo. No
prompt_filter_results dalleFilterResults Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. No
revised_prompt cadeia A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. No
url cadeia A URL da imagem. No

imageGenerationsUsage

Representa os detalhes de uso do token para solicitações de geração de imagem. Somente para modelos da série gpt-image-1.

Name Tipo Description Required Default
input_tokens inteiro O número de tokens de entrada. No
input_tokens_details objeto Um detalhamento detalhado dos tokens de entrada. No
└─ image_tokens inteiro O número de tokens de imagem. No
└─ text_tokens inteiro O número de tokens de texto. No
output_tokens inteiro O número de tokens de saída. No
total_tokens inteiro O número total de tokens usados. No

linha

Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.

Name Tipo Description Required Default
spans matriz Uma matriz de spans que representam objetos detectados e suas informações de caixa delimitadora. Yes
enviar SMS cadeia Yes

span

Um objeto span que representa um objeto detectado e suas informações de caixa delimitadora.

Name Tipo Description Required Default
length inteiro O comprimento do span em caracteres, medido em pontos de código Unicode. Yes
deslocamento inteiro spanO deslocamento de caractere dentro do texto em que o intervalo começa. Esse deslocamento é definido como a posição do primeiro caractere do span, contando desde o início do texto como pontos de código Unicode. Yes
polígono matriz Uma matriz de objetos representando pontos no polígono que inclui o objeto detectado. Yes
enviar SMS cadeia O conteúdo do texto do span que representa o objeto detectado. Yes

runCompletionUsage

Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou seja in_progress, queued etc.).

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens de conclusão usados ao longo da execução. Yes
prompt_tokens inteiro Número de tokens de solicitação usados ao longo da execução. Yes
total_tokens inteiro Número total de tokens usados (solicitação + conclusão). Yes

runStepCompletionUsage

Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress.

Name Tipo Description Required Default
completion_tokens inteiro Número de tokens de conclusão usados ao longo da etapa de execução. Yes
prompt_tokens inteiro Número de tokens de solicitação usados ao longo da etapa de execução. Yes
total_tokens inteiro Número total de tokens usados (solicitação + conclusão). Yes

assistantsApiResponseFormatOption

Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.

Esse componente pode ser um dos seguintes:

assistantsApiResponseFormat

Um objeto que descreve a saída esperada do modelo. Se for json_object, somente function do tipo tools terão permissão para ser passadas para a Execução. Se for text, o modelo poderá retornar texto ou qualquer valor necessário.

Name Tipo Description Required Default
tipo cadeia Deve ser um de text ou json_object. No enviar SMS

Enumeração de tipo: AssistantsApiResponseFormat

Value Description
enviar SMS
json_object

assistantObject

Representa um assistant que pode chamar o modelo e usar ferramentas.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora do Unix (em segundos), para quando o assistente foi criado. Yes
description cadeia A descrição do assistente. O tamanho máximo é de 512 caracteres.
Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
instructions cadeia As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres.
Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
modelo cadeia ID do modelo a ser usado. Yes
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre assistant. Yes
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, file_search ou function.
Yes []
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1

Enumeração de objeto: AssistantObjectType

Value Description
assistente O tipo de objeto, que é sempre assistente

createAssistantRequest

Name Tipo Description Required Default
description cadeia A descrição do assistente. O tamanho máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia Yes
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a este assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
└─ armazenamentos_de_vetores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, retrieval ou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1

modifyAssistantRequest

Name Tipo Description Required Default
description cadeia A descrição do assistente. O tamanho máximo é de 512 caracteres.
No
instructions cadeia As instruções do sistema que o assistente usa. O tamanho máximo é de 32.768 caracteres.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia No
name cadeia O nome do assistente. O comprimento máximo é de 256 caracteres.
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Substitui a lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz Substitui o repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
tools matriz Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, retrieval ou function.
No []
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1

deleteAssistantResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

Enumeração de objeto: DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

assistantToolsCode

Name Tipo Description Required Default
tipo cadeia O tipo de ferramenta que está sendo definida: code_interpreter Yes

Enumeração de tipo: assistantToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Tipo Description Required Default
file_search objeto Substitui a ferramenta de pesquisa de arquivos. No
└─ max_num_results (número máximo de resultados) inteiro O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Esse número deve estar entre 1 e 50 inclusivo.

Observe que a ferramenta de pesquisa de arquivos pode gerar menos de max_num_results resultados.
No
tipo cadeia O tipo de ferramenta que está sendo definida: file_search Yes

Enumeração de tipo: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Tipo Description Required Default
tipo cadeia O tipo de ferramenta que está sendo definida: file_search Yes

Enumeração de tipo: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Tipo Description Required Default
função objeto A definição de função. Yes
└─ descrição cadeia Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. No
└─ nome cadeia O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. No
└─ parâmetros chatCompletionFunctionParameters Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. No
tipo cadeia O tipo de ferramenta que está sendo definida: function Yes

Enumeração de tipo: assistantToolsFunction

Value Description
função

truncationObject

Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.

Name Tipo Description Required Default
last_messages inteiro O número de mensagens mais recentes do thread ao construir o contexto para a execução. No
tipo cadeia A estratégia de truncamento a ser usada para o thread. O padrão é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto, as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo, max_prompt_tokens. Yes

Enumeração de tipo: TruncationType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função. Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.

Esse componente pode ser um dos seguintes:

assistantsNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.

Name Tipo Description Required Default
função objeto No
└─ nome cadeia O nome da função a ser chamada. No
tipo cadeia O tipo da ferramenta. Se o tipo for function, o nome da função deverá ser definido Yes

Enumeração de tipo: AssistantsNamedToolChoiceType

Value Description
função
code_interpreter
file_search

runObject

Representa uma execução executada em threads.

Name Tipo Description Required Default
assistant_id cadeia A ID do assistente usada para a execução dessa execução. Yes
cancelled_at inteiro O carimbo de data/hora Unix (em segundos) de quando a execução foi cancelada. Yes
completed_at inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída. Yes
created_at inteiro O carimbo de data/hora do Unix (em segundos), para quando a execução foi criada. Yes
expires_at inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução expirará. Yes
failed_at inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução falhou. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
incomplete_details objeto Detalhes sobre por que a execução está incompleta. Será null se a execução não estiver incompleta. Yes
└─ motivo cadeia O motivo pelo qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. No
instructions cadeia As instruções que o assistente usou para esta execução. Yes
last_error objeto O último erro associado a esta execução. Será null se não houver erros. Yes
└─ código cadeia Uma opção entre server_error ou rate_limit_exceeded. No
Mensagem └─ cadeia Uma descrição do erro legível para humanos. No
max_completion_tokens inteiro O número máximo de tokens de conclusão especificados que foram usados ao longo da execução.
Yes
max_prompt_tokens inteiro O número máximo de tokens de prompt especificados que foram usados ao longo da execução.
Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
modelo cadeia O modelo que o assistente usou para esta execução. Yes
objeto cadeia O tipo de objeto, que é sempre thread.run. Yes
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
required_action objeto Detalhes sobre a ação necessária para continuar a execução. Será null se nenhuma ação for necessária. Yes
└─ submit_tool_outputs objeto Detalhes sobre as saídas da ferramenta necessárias para que essa execução continue. No
└─ tool_calls matriz Uma lista das chamadas de ferramenta relevantes. No
└─ tipo enumeração Por enquanto, isso é sempre submit_tool_outputs.
Valores possíveis: submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Yes
started_at inteiro O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada. Yes
status cadeia O status da execução, que pode ser queued, in_progress, requires_action, cancelling, cancelled, failed, completed ou expired. Yes
temperature number A temperatura de amostragem usada para esta execução. Se não estiver definida, o padrão será 1. No
thread_id cadeia A ID do thread que foi executada como parte dessa execução. Yes
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.
Yes
tools matriz A lista de ferramentas que o assistente usou para essa execução. Yes []
top_p number O valor de amostragem do núcleo usado para esta execução. Se não estiver definida, o padrão será 1. No
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Yes
uso runCompletionUsage Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou seja in_progress, queued etc.). Yes

Enumeração de objeto: runObjectType

Value Description
thread.run O tipo de objeto da execução, que é sempre thread.run

Enumeração de status: RunObjectStatus

Value Description
na fila O estado na fila
in_progress O estado in_progress
requires_action O estado required_action
cancelling O estado de cancelamento
cancelled O estado cancelado
failed O estado com falha
completed O estado concluído
expired O estado expirado

createRunRequest

Name Tipo Description Required Default
additional_instructions cadeia Acrescenta instruções adicionais ao final das instruções para a execução. Isto é útil para modificar o comportamento por execução sem substituir outras instruções. No
additional_messages matriz Acrescenta mensagens adicionais ao thread antes de criar a execução. No
assistant_id cadeia A ID do assistente a ser usada para executar esta execução. Yes
instructions cadeia Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. No
max_completion_tokens inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de conclusão especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia A ID do Modelo a ser usado para realizar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE].
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.
No
tools matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

listRunsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

modifyRunRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

submitToolOutputsRunRequest

Name Tipo Description Required Default
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE].
No
tool_outputs matriz Uma lista de ferramentas para as quais as saídas estão sendo enviadas. Yes

runToolCallObject

Objetos de chamada de ferramenta

Name Tipo Description Required Default
função objeto A definição de função. Yes
└─ Argumentos cadeia Os argumentos que o modelo espera que você passe para a função. No
└─ nome cadeia O nome da função. No
id cadeia A ID da chamada da ferramenta. Essa ID deve ser referenciada quando você envia as saídas da ferramenta usando Enviar saídas da ferramenta para executar um ponto de extremidade. Yes
tipo cadeia O tipo da chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function. Yes

Enumeração de tipo: RunToolCallObjectType

Value Description
função

createThreadAndRunRequest

Name Tipo Description Required Default
assistant_id cadeia A ID do assistente a ser usada para executar esta execução. Yes
instructions cadeia Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. No
max_completion_tokens inteiro O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de conclusão especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações.
No
max_prompt_tokens inteiro O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações.
No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
modelo cadeia A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. No
parallel_tool_calls ParallelToolCalls Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. No True
response_format assistantsApiResponseFormatOption Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.

A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.

Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
No
fluxo boolean Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE].
No
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
No None
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
No 1
conversa createThreadRequest No
tool_choice assistantsApiToolChoiceOption Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.
No
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente.
No
tools matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. No
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente, é recomendável alterar este ou a temperatura, mas não ambos.
No 1
truncation_strategy truncationObject Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. No

threadObject

Representa um thread que contém mensagens.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora do Unix (em segundos), para quando o thread foi criado. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre thread. Yes
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
Yes
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

Enumeração de objeto: ThreadObjectType

Value Description
conversa O tipo de objeto de thread, que é sempre thread

createThreadRequest

Name Tipo Description Required Default
messages matriz Uma lista de mensagens para iniciar o thread. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No
└─ armazenamentos_de_vetores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

modifyThreadRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores.
No
└─ interpretador_de_código objeto No
└─ file_ids (identificadores de arquivo) matriz Uma lista de IDs de Arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta.
No []
└─ busca_de_arquivo objeto No
└─ vector_store_ids matriz O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread.
No

deleteThreadResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

Enumeração de objeto: DeleteThreadResponseObjectState

Value Description
thread.deleted O estado do objeto de resposta do thread excluído, que é thread.deleted

listThreadsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

messageObject

Representa uma mensagem dentro de um thread.

Name Tipo Description Required Default
assistant_id cadeia Se aplicável, a ID do assistente que criou esta mensagem. Yes
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às que foram adicionados. Yes
completed_at inteiro O carimbo de data/hora Unix (em segundos) de quando a mensagem foi concluída. Yes
conteúdo matriz O conteúdo da mensagem na matriz de texto e/ou imagens. Yes
created_at inteiro O carimbo de data/hora do Unix (em segundos), para quando a mensagem foi criada. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
incomplete_at inteiro O carimbo de data/hora Unix (em segundos) de quando a mensagem foi marcada como incompleta. Yes
incomplete_details objeto Em uma mensagem incompleta, detalha sobre por que a mensagem está incompleta. Yes
└─ motivo cadeia O motivo pelo qual a mensagem está incompleta. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre thread.message. Yes
função cadeia A entidade que produziu a mensagem. Uma opção entre user ou assistant. Yes
run_id cadeia Se aplicável, a ID da execução associada à criação dessa mensagem. Yes
status cadeia O status da mensagem, que pode ser in_progress, incomplete ou completed. Yes
thread_id cadeia A ID de threads à qual essa mensagem pertence. Yes

Enumeração de objeto: MessageObjectType

Value Description
thread.message O tipo de objeto da mensagem, que é thread.message

Enumeração de status: MessageObjectStatus

Value Description
in_progress
incomplete
completed

Enumeração de função: MessageObjectRole

Value Description
usuário
assistente

messageDeltaObject

Representa um delta de mensagem, ou seja, todos os campos alterados em uma mensagem durante o streaming.

Name Tipo Description Required Default
delta objeto O delta que contém os campos que foram alterados na Mensagem. Yes
└─ conteúdo matriz O conteúdo da mensagem na matriz de texto e/ou imagens. No
└─ função cadeia A entidade que produziu a mensagem. Uma opção entre user ou assistant. No
id cadeia O identificador da mensagem, que pode ser referenciado em pontos de extremidade de API. Yes
objeto cadeia O tipo de objeto, que é sempre thread.message.delta. Yes

Enumeração de objeto: MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Tipo Description Required Default
attachments matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. No
conteúdo cadeia O conteúdo da mensagem. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
função cadeia A função da entidade que está criando a mensagem. Entre os valores permitidos estão:
- user: indica que a mensagem foi enviada por um usuário real e, geralmente, deve ser usada para representar mensagens geradas por usuários.
- assistant: indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Yes

Enumeração de função: CreateMessageRequestRole

Value Description
usuário
assistente

modifyMessageRequest

Name Tipo Description Required Default
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No

deleteMessageResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

Enumeração de objeto: DeleteMessageResponseObject

Value Description
thread.message.deleted O estado do objeto de resposta da mensagem excluída

listMessagesResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

messageContentImageFileObject

Faz referência a um Arquivo de imagem no conteúdo de uma mensagem.

Name Tipo Description Required Default
image_file objeto Yes
└─ identificador_de_arquivo cadeia A ID do Arquivo da imagem no conteúdo da mensagem. No
tipo cadeia Sempre image_file. Yes

Enumeração de tipo: MessageContentImageFileObjectType

Value Description
image_file O tipo de arquivo de imagem de conteúdo da mensagem

messageContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Name Tipo Description Required Default
enviar SMS objeto Yes
└─ anotações matriz No
└─ valor cadeia Os dados que compõem o texto. No
tipo cadeia Sempre text. Yes

Enumeração de tipo: messageContentTextObjectType

Value Description
enviar SMS O tipo de Objeto de texto de conteúdo da mensagem

messageContentTextAnnotationsFileCitationObject

Uma citação dentro da mensagem que aponta para uma citação específica de um Arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para pesquisar arquivos.

Name Tipo Description Required Default
end_index inteiro Yes
file_citation objeto Yes
└─ identificador_de_arquivo cadeia A ID do Arquivo específico do qual vem a citação. No
start_index inteiro Yes
enviar SMS cadeia O texto no conteúdo da mensagem que precisa ser substituído. Yes
tipo cadeia Sempre file_citation. Yes

Enumeração de tipo: FileCitationObjectType

Value Description
file_citation O tipo de objeto de citação do arquivo

messageContentTextAnnotationsFilePathObject

Uma URL para o arquivo gerado quando o assistente usou a ferramenta code_interpreter para gerar um arquivo.

Name Tipo Description Required Default
end_index inteiro Yes
file_path objeto Yes
└─ identificador_de_arquivo cadeia A ID do arquivo que foi gerado. No
start_index inteiro Yes
enviar SMS cadeia O texto no conteúdo da mensagem que precisa ser substituído. Yes
tipo cadeia Sempre file_path. Yes

Enumeração de tipo: FilePathObjectType

Value Description
file_path O tipo de objeto de caminho do arquivo

messageDeltaContentImageFileObject

Faz referência a um Arquivo de imagem no conteúdo de uma mensagem.

Name Tipo Description Required Default
image_file objeto No
└─ identificador_de_arquivo cadeia A ID do Arquivo da imagem no conteúdo da mensagem. No
indexar inteiro O índice da parte do conteúdo na mensagem. Yes
tipo cadeia Sempre image_file. Yes

Enumeração de tipo: MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Name Tipo Description Required Default
indexar inteiro O índice da parte do conteúdo na mensagem. Yes
enviar SMS objeto No
└─ anotações matriz No
└─ valor cadeia Os dados que compõem o texto. No
tipo cadeia Sempre text. Yes

Enumeração de tipo: MessageDeltaContentTextObjectType

Value Description
enviar SMS

messageDeltaContentTextAnnotationsFileCitationObject

Uma citação dentro da mensagem que aponta para uma citação específica de um Arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.

Name Tipo Description Required Default
end_index inteiro No
file_citation objeto No
└─ identificador_de_arquivo cadeia A ID do Arquivo específico do qual vem a citação. No
└─ aspas cadeia A citação específica no arquivo. No
indexar inteiro O índice da anotação na parte do conteúdo do texto. Yes
start_index inteiro No
enviar SMS cadeia O texto no conteúdo da mensagem que precisa ser substituído. No
tipo cadeia Sempre file_citation. Yes

Enumeração de tipo: MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Uma URL para o arquivo gerado quando o assistente usou a ferramenta code_interpreter para gerar um arquivo.

Name Tipo Description Required Default
end_index inteiro No
file_path objeto No
└─ identificador_de_arquivo cadeia A ID do arquivo que foi gerado. No
indexar inteiro O índice da anotação na parte do conteúdo do texto. Yes
start_index inteiro No
enviar SMS cadeia O texto no conteúdo da mensagem que precisa ser substituído. No
tipo cadeia Sempre file_path. Yes

Enumeração de tipo: MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Representa uma etapa de uma execução.

Name Tipo Description Required Default
assistant_id cadeia A ID do assistente associado à etapa de execução. Yes
cancelled_at inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi cancelada. Yes
completed_at inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi concluída. Yes
created_at inteiro O carimbo de data/hora do Unix (em segundos), para quando a etapa de execução foi criada. Yes
expired_at inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução expirou. Uma etapa será considerada expirada se a execução pai tiver expirado. Yes
failed_at inteiro O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução falhou. Yes
id cadeia O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. Yes
last_error objeto O último erro associado a esta etapa de execução. Será null se não houver erros. Yes
└─ código cadeia Uma opção entre server_error ou rate_limit_exceeded. No
Mensagem └─ cadeia Uma descrição do erro legível para humanos. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
objeto cadeia O tipo de objeto, que é sempre assistant.run.step. Yes
run_id cadeia A ID da execução da qual essa etapa de execução faz parte. Yes
status cadeia O status da execução, que pode ser in_progress, cancelled, failed, completed ou expired. Yes
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Os detalhes da etapa de execução. Yes
thread_id cadeia A ID dos threads executados. Yes
tipo cadeia O tipo de etapa da execução, que pode ser message_creation ou tool_calls. Yes

Enumeração de objeto: RunStepObjectType

Value Description
assistant.run.step O tipo de objeto, que é sempre assistant.run.step

Enumeração de tipo: RunStepObjectType

Value Description
message_creation A etapa de execução message_creation
tool_calls A etapa de execução tool_calls

Enumeração de status: RunStepObjectStatus

Value Description
in_progress O status de execução in_progress
cancelled O status da execução cancelada
failed O status da execução cancelada
completed O status da execução cancelada
expired O status da execução cancelada

runStepDeltaObject

Representa um delta da etapa de execução, ou seja, todos os campos alterados em uma etapa de execução durante o streaming.

Name Tipo Description Required Default
delta objeto O delta que contém os campos que foram alterados na etapa de execução. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Os detalhes da etapa de execução. No
id cadeia O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. Yes
objeto cadeia O tipo de objeto, que é sempre thread.run.step.delta. Yes

Enumeração de objeto: RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

runStepDetailsMessageCreationObject

Detalhes da criação da mensagem pela etapa de execução.

Name Tipo Description Required Default
message_creation objeto Yes
└─ identificador_da_mensagem cadeia A ID da mensagem que foi criada por esta etapa de execução. No
tipo cadeia Sempre message_creation. Yes

Enumeração de tipo: RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Detalhes da criação da mensagem pela etapa de execução.

Name Tipo Description Required Default
message_creation objeto No
└─ identificador_da_mensagem cadeia A ID da mensagem que foi criada por esta etapa de execução. No
tipo cadeia Sempre message_creation. Yes

Enumeração de tipo: RunStepDeltaStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Detalhes da chamada de ferramenta.

Name Tipo Description Required Default
tool_calls matriz Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreter, retrieval ou function.
Yes
tipo cadeia Sempre tool_calls. Yes

Enumeração de tipo: RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Detalhes da chamada de ferramenta.

Name Tipo Description Required Default
tool_calls matriz Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreter, file_search ou function.
No
tipo cadeia Sempre tool_calls. Yes

Enumeração de tipo: RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Detalhes da chamada da ferramenta Intérprete de Código na qual a etapa de execução estava envolvida.

Name Tipo Description Required Default
code_interpreter objeto A definição da chamada da ferramenta Intérprete de Código. Yes
└─ entrada cadeia A entrada para a chamada da ferramenta Intérprete de Código. No
└─ saídas matriz As saídas da chamada da ferramenta Intérprete de Código. O Intérprete de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. No
id cadeia A ID da chamada da ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Sempre será code_interpreter para esse tipo de chamada de ferramenta. Yes

Enumeração de tipo: RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Detalhes da chamada da ferramenta Intérprete de Código na qual a etapa de execução estava envolvida.

Name Tipo Description Required Default
code_interpreter objeto A definição da chamada da ferramenta Intérprete de Código. No
└─ entrada cadeia A entrada para a chamada da ferramenta Intérprete de Código. No
└─ saídas matriz As saídas da chamada da ferramenta Intérprete de Código. O Intérprete de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. No
id cadeia A ID da chamada da ferramenta. No
indexar inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Sempre será code_interpreter para esse tipo de chamada de ferramenta. Yes

Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Saída de texto da chamada da ferramenta Intérprete de Código como parte de uma etapa de execução.

Name Tipo Description Required Default
logs cadeia A saída de texto da chamada da ferramenta Intérprete de Código. Yes
tipo cadeia Sempre logs. Yes

Enumeração de tipo: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Saída de texto da chamada da ferramenta Intérprete de Código como parte de uma etapa de execução.

Name Tipo Description Required Default
indexar inteiro O índice da saída na matriz de saídas. Yes
logs cadeia A saída de texto da chamada da ferramenta Intérprete de Código. No
tipo cadeia Sempre logs. Yes

Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Tipo Description Required Default
imagem objeto Yes
└─ identificador_de_arquivo cadeia A ID do Arquivo da imagem. No
tipo cadeia Sempre image. Yes

Enumeração de tipo: RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
imagem

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Tipo Description Required Default
imagem objeto No
└─ identificador_de_arquivo cadeia A ID do arquivo da imagem. No
indexar inteiro O índice da saída na matriz de saídas. Yes
tipo cadeia Sempre image. Yes

Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Description
imagem

runStepDetailsToolCallsFileSearchObject

Name Tipo Description Required Default
file_search objeto Por enquanto, isso sempre será um objeto vazio. Yes
└─ resultados matriz Os resultados da pesquisa de arquivos. No
id cadeia A ID do objeto da chamada de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Sempre será file_search para esse tipo de chamada de ferramenta. Yes

Enumeração de tipo: RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Uma instância de resultados da pesquisa de arquivos.

Name Tipo Description Required Default
conteúdo matriz O conteúdo do resultado que foi encontrado. O conteúdo só é incluído se solicitado por meio do parâmetro de consulta include. No
file_id cadeia A ID do arquivo em que o resultado foi encontrado. Yes
file_name cadeia O nome do arquivo em que o resultado foi encontrado. Yes
pontuação number A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Tipo Description Required Default
file_search objeto Por enquanto, isso sempre será um objeto vazio. Yes
id cadeia A ID do objeto da chamada de ferramenta. No
indexar inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Sempre será retrieval para esse tipo de chamada de ferramenta. Yes

Enumeração de tipo: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Tipo Description Required Default
função objeto A definição da função que foi chamada. Yes
└─ Argumentos cadeia Os argumentos passados para a função. No
└─ nome cadeia O nome da função. No
└─ saída cadeia A saída da função. Será null se as saídas ainda não tiverem sido enviadas. No
id cadeia A ID do objeto da chamada de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Sempre será function para esse tipo de chamada de ferramenta. Yes

Enumeração de tipo: RunStepDetailsToolCallsFunctionObjectType

Value Description
função

runStepDeltaStepDetailsToolCallsFunctionObject

Name Tipo Description Required Default
função objeto A definição da função que foi chamada. No
└─ Argumentos cadeia Os argumentos passados para a função. No
└─ nome cadeia O nome da função. No
└─ saída cadeia A saída da função. Será null se as saídas ainda não tiverem sido enviadas. No
id cadeia A ID do objeto da chamada de ferramenta. No
indexar inteiro O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Yes
tipo cadeia O tipo de chamada de ferramenta. Sempre será function para esse tipo de chamada de ferramenta. Yes

Enumeração de tipo: RunStepDetailsToolCallsFunctionObjectType

Value Description
função

vectorStoreExpirationAfter

A política de expiração de um repositório de vetores.

Name Tipo Description Required Default
âncora cadeia Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at. Yes
days inteiro O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. Yes

Enumeração de âncora: VectorStoreExpirationAfterAnchor

Value Description
last_active_at O carimbo de data/hora da âncora após o qual a política de expiração se aplica.

vectorStoreObject

Um repositório de vetores é uma coleção de arquivos processados que pode ser usado pela ferramenta file_search.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. Yes
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
expires_at inteiro O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores expirará. No
file_counts objeto Yes
└─ cancelado inteiro O número de arquivos que foram cancelados. No
└─ concluído inteiro O número de arquivos que foram processados com sucesso. No
└─ falha inteiro O número de arquivos que falharam ao processar. No
└─ em andamento inteiro O número de arquivos que estão sendo processados no momento. No
└─ total inteiro O número total de arquivos. No
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
last_active_at inteiro O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores esteve ativo pela última vez. Yes
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
Yes
name cadeia O nome do repositório de vetores. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.
Valores possíveis: vector_store
Yes
status cadeia O status do repositório de vetores, que pode ser expired, in_progress ou completed. Um status de completed indica que o repositório de vetores está pronto para uso. Yes
usage_bytes inteiro O número total de bytes usados pelos arquivos no repositório de vetores. Yes

Enumeração de status: VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. Somente aplicável se file_ids não estiver vazio. No
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
file_ids matriz Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

updateVectorStoreRequest

Name Tipo Description Required Default
expires_after vectorStoreExpirationAfter A política de expiração de um repositório de vetores. No
metadados objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres.
No
name cadeia O nome do repositório de vetores. No

listVectorStoresResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

deleteVectorStoreResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

Enumeração de objeto: DeleteVectorStoreResponseObject

Value Description
vector_store.deleted O estado do objeto de resposta do repositório de vetores excluído

vectorStoreFileObject

Uma lista de arquivos anexados a um repositório de vetores.

Name Tipo Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. Somente aplicável se file_ids não estiver vazio. No
created_at inteiro O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. Yes
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
last_error objeto O último erro associado a esse arquivo do repositório de vetores. Será null se não houver erros. Yes
└─ código cadeia Um dos server_error ou invalid_file ou unsupported_file. No
Mensagem └─ cadeia Uma descrição do erro legível para humanos. No
objeto cadeia O tipo de objeto, que é sempre vector_store.file. Yes
status cadeia O status do arquivo do repositório de vetores, que pode ser in_progress, completed, cancelled ou failed. O status completed indica que o arquivo do repositório de vetores está pronto para uso. Yes
usage_bytes inteiro O uso total do repositório de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. Yes
vector_store_id cadeia A ID do repositório de vetores ao qual o arquivo está anexado. Yes

Enumeração de objeto: VectorStoreFileObjectType

Value Description
vector_store.file

Enumeração de status: VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Isso é retornado quando a estratégia de divisão em partes é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do conceito de chunking_strategy ser introduzido na API.

Name Tipo Description Required Default
tipo cadeia Sempre other. Yes

tipo Enum: OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Tipo Description Required Default
estático staticChunkingStrategy Yes
tipo cadeia Sempre static. Yes

tipo Enum: StaticChunkingStrategyResponseParamType

Value Description
estático

staticChunkingStrategy

Name Tipo Description Required Default
chunk_overlap_tokens inteiro O número de tokens que se sobrepõem entre as partes. O valor padrão é 400.

Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens.
Yes
max_chunk_size_tokens inteiro O número máximo de tokens em cada parte. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. Yes

autoChunkingStrategyRequestParam

A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.

Name Tipo Description Required Default
tipo enumeração Sempre auto.
Valores possíveis: auto
Yes

staticChunkingStrategyRequestParam

Name Tipo Description Required Default
estático staticChunkingStrategy Yes
tipo enumeração Sempre static.
Valores possíveis: static
Yes

chunkingStrategyRequestParam

A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto.

Esse componente pode ser um dos seguintes:

createVectorStoreFileRequest

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. No
file_id cadeia Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. Yes

listVectorStoreFilesResponse

Name Tipo Description Required Default
dados matriz Yes
first_id cadeia Yes
has_more boolean Yes
last_id cadeia Yes
objeto cadeia Yes

deleteVectorStoreFileResponse

Name Tipo Description Required Default
deleted boolean Yes
id cadeia Yes
objeto cadeia Yes

Enumeração de objeto: DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Um lote de arquivos anexados a um repositório de vetores.

Name Tipo Description Required Default
created_at inteiro O carimbo de data/hora Unix (em segundos) de quando o lote de arquivos do repositório de vetores foi criado. Yes
file_counts objeto Yes
└─ cancelado inteiro O número de arquivos que foram cancelados. No
└─ concluído inteiro O número de arquivos que foram processados. No
└─ falha inteiro O número de arquivos que falharam ao processar. No
└─ em andamento inteiro O número de arquivos que estão sendo processados no momento. No
└─ total inteiro O número total de arquivos. No
id cadeia O identificador, que pode ser referenciado em pontos de extremidade de API. Yes
objeto cadeia O tipo de objeto, que é sempre vector_store.file_batch. Yes
status cadeia O status do lote de arquivos do repositório de vetores, que pode ser in_progress, completed, cancelled ou failed. Yes
vector_store_id cadeia A ID do repositório de vetores ao qual o Arquivo está anexado. Yes

Enumeração de objeto: VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

Enumeração de status: VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Tipo Description Required Default
chunking_strategy chunkingStrategyRequestParam A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. No
file_ids matriz Uma lista de IDs de Arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. Yes

assistantStreamEvent

Representa um evento emitido ao transmitir uma execução.

Cada evento em um fluxo de eventos enviados pelo servidor tem uma propriedade event e data:

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Emitimos eventos sempre que um novo objeto é criado, faz a transição para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída e assim por diante. Quando um Assistente opta por criar uma mensagem durante uma execução, emitimos um thread.message.created event, um evento thread.message.in_progress, muitos eventos thread.message.delta e, por fim, um evento thread.message.completed.

Podemos acrescentar eventos adicionais ao longo do tempo, portanto, recomendamos tratar eventos desconhecidos normalmente em seu código.

Esse componente pode ser um dos seguintes:

threadStreamEvent

Esse componente pode ser um dos seguintes:

thread.created

Ocorre quando um novo thread é criado.

Name Tipo Description Required Default
dados threadObject Representa um thread que contém mensagens. Yes
evento cadeia Yes

Dados: threadObject

Enumeração de Evento: ThreadStreamEventEnum

Value Description
thread.created O evento criado pelo thread

runStreamEvent

Esse componente pode ser um dos seguintes:

thread.run.created

Ocorre quando uma nova execução é criada.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Ocorre quando uma execução é movida para um status queued.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Ocorre quando uma execução é movida para um status in_progress.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Ocorre quando uma execução é movida para um status requires_action.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventRequiresAction

Value Description
thread.run.requires_action

thread.run.completed

Ocorre quando uma execução é concluída.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventCompleted

Value Description
thread.run.completed

thread.run.failed

Ocorre quando uma execução falha.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Ocorre quando uma execução é movida para um status cancelling.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Ocorre quando uma execução é cancelada.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Ocorre quando uma execução expira.

Name Tipo Description Required Default
dados runObject Representa uma execução executada em threads. Yes
evento cadeia Yes

Dados: runObject

Enumeração de Evento: RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Esse componente pode ser um dos seguintes:

thread.run.step.created

Ocorre quando uma etapa de execução é criada.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa de uma execução.
Yes
evento cadeia Yes

Dados: runStepObject

Enumeração de Evento: RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Ocorre quando uma etapa de execução é movida para um estado in_progress.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa de uma execução.
Yes
evento cadeia Yes

Dados: runStepObject

Enumeração de Evento: RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Ocorre quando partes de uma etapa de execução estão sendo transmitidas.

Name Tipo Description Required Default
dados runStepDeltaObject Representa um delta da etapa de execução, ou seja, todos os campos alterados em uma etapa de execução durante o streaming.
Yes
evento cadeia Yes

Dados: runStepDeltaObject

Enumeração de Evento: RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Ocorre quando uma etapa de execução é concluída.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa de uma execução.
Yes
evento cadeia Yes

Dados: runStepObject

Enumeração de Evento: RunStepStreamEventCompleted

Value Description
thread.run.step.completed

thread.run.step.failed

Ocorre quando uma etapa de execução falha.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa de uma execução.
Yes
evento cadeia Yes

Dados: runStepObject

Enumeração de Evento: RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Ocorre quando uma etapa de execução é cancelada.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa de uma execução.
Yes
evento cadeia Yes

Dados: runStepObject

Enumeração de Evento: RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Ocorre quando uma etapa de execução expira.

Name Tipo Description Required Default
dados runStepObject Representa uma etapa de uma execução.
Yes
evento cadeia Yes

Dados: runStepObject

Enumeração de Evento: RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Esse componente pode ser um dos seguintes:

thread.message.created

Ocorre quando uma mensagem é criada.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um thread. Yes
evento cadeia Yes

Dados: messageObject

Enumeração de Evento: MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Ocorre quando uma mensagem é movida para um estado in_progress.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um thread. Yes
evento cadeia Yes

Dados: messageObject

Enumeração de Evento: MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Ocorre quando partes de uma mensagem estão sendo transmitidas.

Name Tipo Description Required Default
dados messageDeltaObject Representa um delta de mensagem, ou seja, todos os campos alterados em uma mensagem durante o streaming.
Yes
evento cadeia Yes

Dados: messageDeltaObject

Enumeração de Evento: MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Ocorre quando uma mensagem é concluída.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um thread. Yes
evento cadeia Yes

Dados: messageObject

Enumeração de Evento: MessageStreamEventCompleted

Value Description
thread.message.completed

thread.message.incomplete

Ocorre quando uma mensagem termina antes de ser concluída.

Name Tipo Description Required Default
dados messageObject Representa uma mensagem dentro de um thread. Yes
evento cadeia Yes

Dados: messageObject

Enumeração de Evento: MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Esse componente pode ser um dos seguintes:

Click

Uma ação de clique.

Name Tipo Description Required Default
button enumeração Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, back ou forward.

Valores possíveis: left, , right, wheel, back, forward
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.

Valores possíveis: click
Yes
x inteiro A coordenada x em que o clique ocorreu.
Yes
y inteiro A coordenada y em que o clique ocorreu.
Yes

CodeInterpreterFileOutput

A saída de uma chamada de ferramenta de intérprete de código que é um arquivo.

Name Tipo Description Required Default
files matriz Yes
tipo enumeração O tipo da saída do arquivo interpretador de código. Sempre files.

Valores possíveis: files
Yes

CodeInterpreterTextOutput

A saída de uma chamada de ferramenta de intérprete de código que é um texto.

Name Tipo Description Required Default
logs cadeia Os logs da chamada da ferramenta de intérprete de código.
Yes
tipo enumeração O tipo da saída de texto do interpretador de código. Sempre logs.

Valores possíveis: logs
Yes

CodeInterpreterTool

Uma ferramenta que executa o código.

Name Tipo Description Required Default
file_ids matriz As IDs dos arquivos em que executar o código.
Yes
tipo enumeração O tipo da ferramenta de interpretador de código. Sempre code_interpreter.

Valores possíveis: code_interpreter
Yes

CodeInterpreterToolCall

Uma chamada de ferramenta para executar o código.

Name Tipo Description Required Default
codificar cadeia O código a ser executado.
Yes
id cadeia A ID exclusiva da chamada da ferramenta de intérprete de código.
Yes
results matriz Os resultados da chamada da ferramenta de intérprete de código.
Yes
status enumeração O status da chamada da ferramenta de intérprete de código.

Valores possíveis: in_progress, , interpretingcompleted
Yes
tipo enumeração O tipo da chamada da ferramenta de intérprete de código. Sempre code_interpreter_call.

Valores possíveis: code_interpreter_call
Yes

CodeInterpreterToolOutput

Esse componente pode ser um dos seguintes:

ComparisonFilter

Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.

Name Tipo Description Required Default
chave cadeia A chave a ser comparada com o valor. Yes
tipo enumeração Especifica o operador de comparação: eq, , ne, gt, gte, lt, lte.
- eq: igual
- ne: não é igual a
- gt: maior que
- gte: maior ou igual a
- lt: menor que
- lte: menor ou igual a

Valores possíveis: eq, , ne, gt, gte, , ltlte
Yes
value cadeia de caracteres ou número ou booleano O valor a ser comparado com a chave de atributo; dá suporte a tipos de cadeia de caracteres, número ou booliano. Yes

CompoundFilter

Combinar vários filtros usando and ou or.

Name Tipo Description Required Default
filters matriz Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. Yes
tipo enumeração Tipo de operação: and ou or.
Valores possíveis: and, or
Yes

ComputerAction

Esse componente pode ser um dos seguintes:

ComputerScreenshotImage

Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.

Name Tipo Description Required Default
file_id cadeia O identificador de um arquivo carregado que contém a captura de tela. No
image_url cadeia A URL da imagem de captura de tela. No
tipo enumeração Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definida como computer_screenshot.

Valores possíveis: computer_screenshot
Yes

ComputerTool

Uma ferramenta que controla um computador virtual.

Name Tipo Description Required Default
display_height number A altura da exibição do computador.
Yes
display_width number A largura da exibição do computador.
Yes
ambiente enumeração O tipo de ambiente de computador a ser controlado.

Valores possíveis: mac, , windows, ubuntubrowser
Yes
tipo enumeração O tipo da ferramenta de uso do computador. Sempre computer_use_preview.

Valores possíveis: computer-use-preview
Yes

ComputerToolCall

Uma chamada de ferramenta para uma ferramenta de uso de computador.

Name Tipo Description Required Default
ação ComputerAction Yes
call_id cadeia Um identificador usado ao responder à chamada de ferramenta com saída.
Yes
id cadeia O identificador único da chamada do computador. Yes
pending_safety_checks matriz As verificações de segurança pendentes para a chamada de computador.
Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração O tipo da chamada de computador. Sempre computer_call.
Valores possíveis: computer_call
Yes

ComputerToolCallOutput

A saída de uma chamada de ferramenta de computador.

Name Tipo Description Required Default
acknowledged_safety_checks matriz As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor.
No
call_id cadeia A ID da chamada da ferramenta de computador que produziu a saída.
Yes
id cadeia A ID da saída da chamada da ferramenta de computador.
No
saída ComputerScreenshotImage Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
Yes
status enumeração O status da entrada da mensagem. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens de entrada são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.

Valores possíveis: computer_call_output
Yes

ComputerToolCallOutputResource

Name Tipo Description Required Default
acknowledged_safety_checks matriz As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor.
No
call_id cadeia A ID da chamada da ferramenta de computador que produziu a saída.
Yes
id cadeia A ID exclusiva da saída da ferramenta de chamada do computador.
Yes
saída ComputerScreenshotImage Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
Yes
status enumeração O status da entrada da mensagem. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens de entrada são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.

Valores possíveis: computer_call_output
Yes

ComputerToolCallSafetyCheck

Uma verificação de segurança pendente para a chamada de computador.

Name Tipo Description Required Default
codificar cadeia O tipo da verificação de segurança pendente. Yes
id cadeia A ID da verificação de segurança pendente. Yes
mensagem cadeia Detalhes sobre a verificação de segurança pendente. Yes

Content

Conteúdo de entrada e saída multi modal.

Esse componente pode ser um dos seguintes:

Coordinate

Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }.

Name Tipo Description Required Default
x inteiro A coordenada x.
Yes
y inteiro A coordenada y.
Yes

CreateModelResponseProperties

Name Tipo Description Required Default
metadados Metadata Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modelo cadeia Modelo usado para gerar as respostas. No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. .
No

createResponse

Name Tipo Description Required Default
include matriz {"$ref": "#/components/schemas/includable/description"} No
entrada cadeia de caracteres ou matriz Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta. Yes
instructions cadeia Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio.
No
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo.
No True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio. No
armazenar boolean Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API.
No True
fluxo boolean Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. No False
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais:
– entradas e saídas de texto
– Saídas estruturadas
No
└─ Formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas integradas
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o
resposta para ajustar a janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

DoubleClick

Uma ação de clique duplo.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.

Valores possíveis: double_click
Yes
x inteiro A coordenada x em que o clique duplo ocorreu.
Yes
y inteiro A coordenada y em que o clique duplo ocorreu.
Yes

Drag

Uma ação de arrastar.

Name Tipo Description Required Default
caminho matriz Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas serão exibidas como uma matriz de objetos, por exemplo,[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag.

Valores possíveis: drag
Yes

EasyInputMessage

Uma mensagem de entrada para o modelo com uma função que indica a hierarquia de instruções a seguir. As instruções fornecidas com a função developer ou system têm precedência sobre as instruções fornecidas com a função user. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.

Name Tipo Description Required Default
conteúdo string ou InputMessageContentList Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta.
Também pode conter respostas anteriores do assistente.
Yes
função enumeração A função da entrada de mensagem. Uma opção entre user, assistant, system ou developer.

Valores possíveis: user, , assistant, systemdeveloper
Yes
tipo enumeração O tipo de entrada da mensagem. Sempre message.

Valores possíveis: message
No

FileCitation

Uma citação a um arquivo.

Name Tipo Description Required Default
file_id cadeia A ID do arquivo.
Yes
indexar inteiro O índice do arquivo na lista de arquivos.
Yes
tipo enumeração O tipo da citação de arquivo. Sempre file_citation.

Valores possíveis: file_citation
Yes

FilePath

Um caminho para um arquivo.

Name Tipo Description Required Default
file_id cadeia A ID do arquivo.
Yes
indexar inteiro O índice do arquivo na lista de arquivos.
Yes
tipo enumeração O tipo do caminho do arquivo. Sempre file_path.

Valores possíveis: file_path
Yes

FileSearchRanker

O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador.

Property Value
Description O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador.
Type cadeia
Values auto
default_2024_08_21

FileSearchTool

Uma ferramenta que pesquisa conteúdo relevante de arquivos carregados.

Name Tipo Description Required Default
filters ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. No
max_num_results inteiro O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50 inclusivo.
No
ranking_options objeto Opções de classificação para pesquisa. No
└─ ranker enumeração O classificador a ser usado para a pesquisa de arquivos.
Valores possíveis: auto, default-2024-11-15
No
└─ limite_de_pontuação number O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1.
Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados.
No 0
tipo enumeração O tipo da ferramenta de pesquisa de arquivo. Sempre file_search.

Valores possíveis: file_search
Yes
vector_store_ids matriz Os IDs dos repositórios de vetores a serem pesquisados.
Yes

FileSearchToolCall

Os resultados de uma chamada de ferramenta de pesquisa de arquivo.

Name Tipo Description Required Default
id cadeia A ID exclusiva da chamada da ferramenta de pesquisa de arquivos.
Yes
queries matriz As consultas usadas para pesquisar arquivos.
Yes
results matriz Os resultados da chamada da ferramenta de pesquisa de arquivos.
No
status enumeração O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress, searchingincomplete ou failed,

Valores possíveis: in_progress, , searching, completed, incomplete, failed
Yes
tipo enumeração O tipo da chamada da ferramenta de pesquisa de arquivo. Sempre file_search_call.

Valores possíveis: file_search_call
Yes

FunctionTool

Define uma função em seu próprio código que o modelo pode optar por chamar.

Name Tipo Description Required Default
description cadeia Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada.
No
name cadeia O nome da função a ser chamada.
Yes
parameters objeto Um objeto de esquema JSON que descreve os parâmetros da função.
Yes
strict boolean Se deve impor a validação estrita de parâmetro. Padrão true.
Yes
tipo enumeração O tipo da ferramenta de função. Sempre function.

Valores possíveis: function
Yes

FunctionToolCall

Uma chamada de ferramenta para executar uma função.

Name Tipo Description Required Default
arguments cadeia Uma cadeia de caracteres JSON dos argumentos a serem passados para a função.
Yes
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo.
Yes
id cadeia A ID exclusiva da chamada da ferramenta de função.
Yes
name cadeia O nome da função a ser executada.
Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da chamada da ferramenta de função. Sempre function_call.

Valores possíveis: function_call
Yes

FunctionToolCallOutput

A saída de uma chamada de ferramenta de função.

Name Tipo Description Required Default
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo.
Yes
id cadeia A ID exclusiva da saída da chamada da ferramenta de função. Populado quando esse item é retornado por meio da API.
No
saída cadeia Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função.
Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.

Valores possíveis: function_call_output
Yes

FunctionToolCallOutputResource

Name Tipo Description Required Default
call_id cadeia A ID exclusiva da chamada da ferramenta de função gerada pelo modelo.
Yes
id cadeia A ID exclusiva da saída da ferramenta de chamada de função.
Yes
saída cadeia Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função.
Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.

Valores possíveis: function_call_output
Yes

includable

Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:

  • file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos.
  • message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
  • computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
Property Value
Description Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
- file_search_call.results: inclua os resultados da pesquisa da ferramenta de busca de arquivos.
- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.
- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
Type cadeia
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Uma entrada de áudio para o modelo.

Name Tipo Description Required Default
dados cadeia Dados de áudio codificados em Base64.
Yes
format enumeração O formato dos dados de áudio. Os formatos com suporte no momento são mp3 e wav.

Valores possíveis: mp3, wav
Yes
tipo enumeração O tipo do item de entrada. Sempre input_audio.

Valores possíveis: input_audio
Yes

InputContent

Esse componente pode ser um dos seguintes:

InputFile

Uma entrada de arquivo para o modelo.

Name Tipo Description Required Default
file_data cadeia O conteúdo do arquivo a ser enviado para o modelo.
No
file_id cadeia A ID do arquivo a ser enviado para o modelo.
No
filename cadeia O nome do arquivo a ser enviado para o modelo.
No
tipo enumeração O tipo do item de entrada. Sempre input_file.

Valores possíveis: input_file
Yes

InputImage

Uma entrada de imagem para o modelo.

Name Tipo Description Required Default
detail enumeração O nível de detalhes da imagem a ser enviada para o modelo. Uma opção entre high, low ou auto. Usa auto como padrão.

Valores possíveis: high, , lowauto
Yes
file_id cadeia A ID do arquivo a ser enviado para o modelo.
No
image_url cadeia A URL da imagem a ser enviada para o modelo. Uma URL totalmente qualificada ou uma imagem codificada em base64 em uma URL de dados.
No
tipo enumeração O tipo do item de entrada. Sempre input_image.

Valores possíveis: input_image
Yes

InputItem

Esse componente pode ser um dos seguintes:

InputMessage

Uma mensagem de entrada para o modelo com uma função que indica a hierarquia de instruções a seguir. As instruções fornecidas com a função developer ou system têm precedência sobre as instruções fornecidas com a função user.

Name Tipo Description Required Default
conteúdo InputMessageContentList Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente
types.
Yes
função enumeração A função da entrada de mensagem. Uma opção entre user, system ou developer.

Valores possíveis: user, , systemdeveloper
Yes
status enumeração O status do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo de entrada da mensagem. Sempre defina como message.

Valores possíveis: message
No

InputMessageContentList

Uma lista de um ou muitos itens de entrada para o modelo, contendo tipos de conteúdo diferentes.

Nenhuma propriedade definida para esse componente.

InputMessageResource

Name Tipo Description Required Default
conteúdo InputMessageContentList Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente
types.
Yes
id cadeia A ID exclusiva da entrada da mensagem.
Yes
função enumeração A função da entrada de mensagem. Uma opção entre user, system ou developer.

Valores possíveis: user, , systemdeveloper
Yes
status enumeração O status do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo de entrada da mensagem. Sempre defina como message.

Valores possíveis: message
No

InputText

Uma entrada de texto para o modelo.

Name Tipo Description Required Default
enviar SMS cadeia A entrada de texto para o modelo.
Yes
tipo enumeração O tipo do item de entrada. Sempre input_text.

Valores possíveis: input_text
Yes

Item

Item de conteúdo usado para gerar uma resposta.

Esse componente pode ser um dos seguintes:

ItemReference

Um identificador interno para um item a ser referenciado.

Name Tipo Description Required Default
id cadeia A ID do item a ser referenciado.
Yes
tipo enumeração O tipo de item a ser referenciado. Sempre item_reference.

Valores possíveis: item_reference
Yes

ItemResource

Item de conteúdo usado para gerar uma resposta.

Esse componente pode ser um dos seguintes:

KeyPress

Uma coleção de pressionamentos de teclas que o modelo deseja realizar.

Name Tipo Description Required Default
keys matriz A combinação de teclas que o modelo está solicitando que sejam pressionadas. Essa é uma matriz de cadeias de caracteres, cada uma representando uma chave.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação keypress, essa propriedade é sempre definida como keypress.

Valores possíveis: keypress
Yes

Metadata

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.

Nenhuma propriedade definida para esse componente.

ModelResponseProperties

Name Tipo Description Required Default
metadados Metadata Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
No
modelo cadeia Modelo usado para gerar as respostas. No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
No 1
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
No 1
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. .
No

Move

Uma ação de movimentação do mouse.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move.

Valores possíveis: move
Yes
x inteiro A coordenada x para a qual mover.
Yes
y inteiro A coordenada y para a qual mover.
Yes

OutputAudio

Uma saída de áudio do modelo.

Name Tipo Description Required Default
dados cadeia Dados de áudio do modelo codificados em Base64.
Yes
transcrição cadeia A transcrição dos dados de áudio provenientes do modelo.
Yes
tipo enumeração O tipo do áudio de saída. Sempre output_audio.

Valores possíveis: output_audio
Yes

OutputContent

Esse componente pode ser um dos seguintes:

OutputItem

Name Tipo Description Required Default
ação ComputerAction Yes
arguments cadeia Uma cadeia de caracteres JSON dos argumentos a serem passados para a função.
Yes
call_id cadeia Um identificador usado ao responder à chamada de ferramenta com saída.
Yes
conteúdo matriz Conteúdo de texto de raciocínio.
Yes
id cadeia O identificador exclusivo do conteúdo de raciocínio.
Yes
name cadeia O nome da função a ser executada.
Yes
pending_safety_checks matriz As verificações de segurança pendentes para a chamada de computador.
Yes
queries matriz As consultas usadas para pesquisar arquivos.
Yes
results matriz Os resultados da chamada da ferramenta de pesquisa de arquivos.
No
função enumeração A função da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Yes

OutputMessage

Uma mensagem de saída do modelo.

Name Tipo Description Required Default
conteúdo matriz O conteúdo da mensagem de saída.
Yes
id cadeia A identificação única da mensagem de saída.
Yes
função enumeração A função da mensagem de saída. Sempre assistant.

Valores possíveis: assistant
Yes
status enumeração O status da entrada da mensagem. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens de entrada são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
Yes
tipo enumeração O tipo da mensagem de saída. Sempre message.

Valores possíveis: message
Yes

OutputText

Uma saída de texto do modelo.

Name Tipo Description Required Default
annotations matriz As anotações da saída de texto.
Yes
enviar SMS cadeia A saída de texto do modelo.
Yes
tipo enumeração O tipo do texto de saída. Sempre output_text.

Valores possíveis: output_text
Yes

RealtimeSessionCreateRequest

Configuração de objeto de sessão em tempo real.

Name Tipo Description Required Default
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits em uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de byte little-endian.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser definido como null para desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
Filtrar o áudio pode melhorar a precisão do VAD e da detecção de turnos (reduzindo falsos positivos) e o desempenho do modelo ao aprimorar a percepção do áudio de entrada.
No
└─ tipo enumeração Tipo de redução de ruído. near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada, que por padrão está desativada e pode ser ajustada para null para desativar quando ativada. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio do ponto de extremidade de transcrições e deve ser tratada como diretriz de conteúdo de áudio de entrada, em vez de precisamente o que o modelo ouviu. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição.
No
└─ idioma cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ modelo cadeia O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15whisper-1.
No
└─ comando cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado.

Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. Usa inf como padrão.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
modelo cadeia O nome da implantação usada para essa sessão.
No
output_audio_format enumeração O formato do áudio de saída. As opções são pcm16, g711_ulaw ou g711_alaw.
Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho.
No 0.8
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função.
No auto
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de turnos, seja por VAD do servidor ou VAD semântico. Isso pode ser configurado para null para desativar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário fica inaudível com uhhm, o modelo pontuará uma baixa probabilidade de fim de turno e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ criar_resposta boolean Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de parada do VAD.
No True
└─ ânsia enumeração Usado apenas para o modo semantic_vad. A ânsia do modelo de responder. low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, , medium, highauto
No
└─ resposta_de_interrupção boolean Se deve ou não interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorrer um evento de início de VAD.
No True
└─ prefix_padding_ms inteiro Usado apenas para o modo server_vad. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ duração_do_silêncio_ms inteiro Usado apenas para o modo server_vad. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário.
No
└─ limite number Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ tipo enumeração O tipo de detecção de turno.

Valores possíveis: server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Uma nova configuração de sessão em tempo real, com uma chave efêmera. O TTL padrão para chaves é de um minuto.

Name Tipo Description Required Default
client_secret objeto Chave efêmera retornada pela API. Yes
└─ data_de_expiração inteiro Carimbo de data/hora para quando o token expirar. Atualmente, todos os tokens expiram após um minuto.
No
└─ valor cadeia Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API do Realtime. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor.
No
input_audio_format cadeia O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada, que por padrão está desativada e pode ser ajustada para null para desativar quando ativada. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio de Whisper e deve ser tratada como orientação aproximada em vez da representação compreendida pelo modelo.
No
└─ modelo cadeia O modelo a ser usado para transcrição whisper-1 é o único modelo com suporte no momento.
No
instructions cadeia As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta (por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado.
Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão.
No
max_response_output_tokens inteiro ou cadeia de caracteres Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. Usa inf como padrão.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
output_audio_format cadeia O formato do áudio de saída. As opções são pcm16, g711_ulaw ou g711_alaw.
No
temperature number Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. O valor padrão é 0,8.
No
tool_choice cadeia Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função.
No
tools matriz Ferramentas (funções) disponíveis para o modelo. No
turn_detection objeto Configuração para detecção de turnos. Pode ser definido para null para desativar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
No
└─ prefix_padding_ms inteiro Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ duração_do_silêncio_ms inteiro Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário.
No
└─ limite number Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ tipo cadeia Tipo de detecção de turnos, há suporte apenas para server_vad no momento.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Configuração do objeto de sessão de transcrição em tempo real.

Name Tipo Description Required Default
include matriz O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são:
- item.input_audio_transcription.logprobs
No
input_audio_format enumeração O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.
Para pcm16, o áudio de entrada deve ser PCM de 16 bits em uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de byte little-endian.

Valores possíveis: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction objeto Configuração para redução de ruído de áudio de entrada. Isso pode ser definido como null para desativar.
A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo.
Filtrar o áudio pode melhorar a precisão do VAD e da detecção de turnos (reduzindo falsos positivos) e o desempenho do modelo ao aprimorar a percepção do áudio de entrada.
No
└─ tipo enumeração Tipo de redução de ruído. near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.

Valores possíveis: near_field, far_field
No
input_audio_transcription objeto Configuração para transcrição de áudio de entrada. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição.
No
└─ idioma cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ modelo enumeração O modelo a ser usado para transcrição, as opções atuais sãogpt-4o-transcribe, , , gpt-4o-transcribe-diarizee gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15. whisper-1

Valores possíveis: gpt-4o-transcribe, , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ comando cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior.
Para whisper-1, o prompt é uma lista de palavras-chave.
Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia".
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
turn_detection objeto Configuração para detecção de turnos, seja por VAD do servidor ou VAD semântico. Isso pode ser configurado para null para desativar, caso em que o cliente deve acionar manualmente a resposta do modelo.
O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário fica inaudível com uhhm, o modelo pontuará uma baixa probabilidade de fim de turno e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior.
No
└─ criar_resposta boolean Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de parada do VAD. Não disponível para sessões de transcrição.
No True
└─ ânsia enumeração Usado apenas para o modo semantic_vad. A ânsia do modelo de responder. low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente. auto é o padrão e é equivalente a medium.

Valores possíveis: low, , medium, highauto
No
└─ resposta_de_interrupção boolean Se deve ou não interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorrer um evento de início de VAD. Não disponível para sessões de transcrição.
No True
└─ prefix_padding_ms inteiro Usado apenas para o modo server_vad. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ duração_do_silêncio_ms inteiro Usado apenas para o modo server_vad. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário.
No
└─ limite number Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ tipo enumeração O tipo de detecção de turno.

Valores possíveis: server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Uma nova configuração de sessão de transcrição em tempo real.

Quando uma sessão é criada no servidor por meio da API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada por meio da API WebSocket.

Name Tipo Description Required Default
client_secret objeto Chave efêmera retornada pela API. Só está presente quando a sessão é criada no servidor por meio da API REST.
Yes
└─ data_de_expiração inteiro Carimbo de data/hora para quando o token expirar. Atualmente, todos os tokens expiram após um minuto.
No
└─ valor cadeia Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API do Realtime. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor.
No
input_audio_format cadeia O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.
No
input_audio_transcription objeto Configuração do modelo de transcrição.
No
└─ idioma cadeia O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência.
No
└─ modelo enumeração O modelo a ser usado para transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 ou whisper-1.

Valores possíveis: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└─ comando cadeia Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio.
No
modalities O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"].
No
turn_detection objeto Configuração para detecção de turnos. Pode ser definido para null para desativar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário.
No
└─ prefix_padding_ms inteiro Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms.
No
└─ duração_do_silêncio_ms inteiro Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário.
No
└─ limite number Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos.
No
└─ tipo cadeia Tipo de detecção de turnos, há suporte apenas para server_vad no momento.
No

Reasoning

Opções de configuração para modelos de raciocínio.

Name Tipo Description Required Default
Esforço ReasoningEffort Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
Yes meio
resumo enumeração Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo.
Uma opção entre concise ou detailed.

Valores possíveis: concise, detailed
No

ReasoningItem

Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.

Name Tipo Description Required Default
conteúdo matriz Conteúdo de texto de raciocínio.
Yes
id cadeia O identificador exclusivo do conteúdo de raciocínio.
Yes
status enumeração A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.

Valores possíveis: in_progress, , completedincomplete
No
tipo enumeração O tipo do objeto. Sempre reasoning.

Valores possíveis: reasoning
Yes

Refusal

Uma recusa do modelo.

Name Tipo Description Required Default
refusal cadeia A explicação da recusa do modelo.
Yes
tipo enumeração O tipo da recusa. Sempre refusal.

Valores possíveis: refusal
Yes

response

Name Tipo Description Required Default
created_at number Unix timestamp (em segundos) de quando esta Resposta foi criada.
Yes
erro ResponseError Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.
Yes
id cadeia Identificador exclusivo para esta resposta.
Yes
incomplete_details objeto Detalhes sobre por que a resposta está incompleta.
Yes
└─ motivo enumeração O motivo pelo qual a resposta está incompleta.
Valores possíveis: max_output_tokens, content_filter
No
instructions cadeia Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
Yes
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado da conversa.
No
metadados Metadata Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.

As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Yes
modelo cadeia Modelo usado para gerar as respostas. Yes
objeto enumeração O tipo de objeto desse recurso – sempre definido como response.

Valores possíveis: response
Yes
saída matriz Uma matriz de itens de conteúdo gerados pelo modelo.

- O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.
- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs.
Yes
output_text cadeia Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum.
Com suporte nos SDKs python e JavaScript.
No
parallel_tool_calls boolean Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo.
Yes True
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio.
No
status enumeração O status da geração de resposta. Uma opção entre completed, failed, in_progress ou incomplete.

Valores possíveis: completed, , failed, in_progressincomplete
No
temperature number Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.
Yes 1
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais:
– entradas e saídas de texto
– Saídas estruturadas
No
└─ Formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
Yes
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas integradas
Yes
top_p number Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.
Yes 1
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No
uso ResponseUsage Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.
No
usuário cadeia Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. .
No

ResponseAudioDeltaEvent

Emitido quando há uma resposta de áudio parcial.

Name Tipo Description Required Default
delta cadeia Uma parte dos bytes de áudio de resposta codificados em Base64.
Yes
tipo enumeração O tipo de evento. Sempre response.audio.delta.

Valores possíveis: response.audio.delta
Yes

ResponseAudioDoneEvent

Emitido quando a resposta de áudio é concluída.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Sempre response.audio.done.

Valores possíveis: response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Emitido quando há uma transcrição parcial do áudio.

Name Tipo Description Required Default
delta cadeia A transcrição parcial da resposta de áudio.
Yes
tipo enumeração O tipo de evento. Sempre response.audio.transcript.delta.

Valores possíveis: response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Emitido quando a transcrição de áudio completa é concluída.

Name Tipo Description Required Default
tipo enumeração O tipo de evento. Sempre response.audio.transcript.done.

Valores possíveis: response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Emitido quando um snippet de código parcial é adicionado pelo interpretador de código.

Name Tipo Description Required Default
delta cadeia O trecho parcial de código adicionado pelo interpretador de código.
Yes
output_index inteiro O índice do item de saída que a chamada do intérprete de código está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.code.delta.

Valores possíveis: response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Emitido quando a saída do snippet de código é finalizada pelo intérprete de código.

Name Tipo Description Required Default
codificar cadeia A saída final do snippet de código pelo intérprete de código.
Yes
output_index inteiro O índice do item de saída que a chamada do intérprete de código está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.code.done.

Valores possíveis: response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Emitido quando a chamada do interpretador de código é concluída.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar o código.
Yes
output_index inteiro O índice do item de saída que a chamada do intérprete de código está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.completed.

Valores possíveis: response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Emitido quando uma chamada de interpretador de código está em andamento.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar o código.
Yes
output_index inteiro O índice do item de saída que a chamada do intérprete de código está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.in_progress.

Valores possíveis: response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Emitido quando o interpretador de código está interpretando ativamente o snippet de código.

Name Tipo Description Required Default
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar o código.
Yes
output_index inteiro O índice do item de saída que a chamada do intérprete de código está em andamento.
Yes
tipo enumeração O tipo de evento. Sempre response.code_interpreter_call.interpreting.

Valores possíveis: response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Emitido quando a resposta do modelo é concluída.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.completed.

Valores possíveis: response.completed
Yes

ResponseContentPartAddedEvent

Emitido quando uma nova parte de conteúdo é adicionada.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que foi adicionada.
Yes
item_id cadeia A ID do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
part OutputContent Yes
tipo enumeração O tipo de evento. Sempre response.content_part.added.

Valores possíveis: response.content_part.added
Yes

ResponseContentPartDoneEvent

Emitido quando uma parte do conteúdo é concluída.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que está concluída.
Yes
item_id cadeia A ID do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a parte de conteúdo foi adicionada.
Yes
part OutputContent Yes
tipo enumeração O tipo de evento. Sempre response.content_part.done.

Valores possíveis: response.content_part.done
Yes

ResponseCreatedEvent

Um evento emitido quando uma resposta é criada.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.created.

Valores possíveis: response.created
Yes

ResponseError

Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.

Name Tipo Description Required Default
codificar ResponseErrorCode O código de erro da resposta.
Yes
mensagem cadeia Uma descrição do erro legível para humanos.
Yes

ResponseErrorCode

O código de erro da resposta.

Property Value
Description O código de erro da resposta.
Type cadeia
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Emitido quando ocorre um erro.

Name Tipo Description Required Default
codificar cadeia O código do erro.
Yes
mensagem cadeia A mensagem de erro.
Yes
param cadeia O parâmetro de erro.
Yes
tipo enumeração O tipo de evento. Sempre error.

Valores possíveis: error
Yes

ResponseFailedEvent

Um evento emitido quando uma resposta falha.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.failed.

Valores possíveis: response.failed
Yes

ResponseFileSearchCallCompletedEvent

Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.completed.

Valores possíveis: response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Emitido quando uma chamada de pesquisa de arquivo é iniciada.

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.in_progress.

Valores possíveis: response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Emitido quando uma pesquisa de arquivo está em andamento.

Name Tipo Description Required Default
item_id cadeia A ID do item de saída que a chamada de pesquisa de arquivo é iniciada.
Yes
output_index inteiro O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando.
Yes
tipo enumeração O tipo de evento. Sempre response.file_search_call.searching.

Valores possíveis: response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Emitido quando há um delta de argumentos parciais de chamada de função.

Name Tipo Description Required Default
delta cadeia O delta de argumentos de chamada de função que é adicionado.
Yes
item_id cadeia A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado.
Yes
output_index inteiro O índice do item de saída ao qual o delta de argumentos de chamada de função é adicionado.
Yes
tipo enumeração O tipo de evento. Sempre response.function_call_arguments.delta.

Valores possíveis: response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Emitido quando os argumentos de chamada de função são finalizados.

Name Tipo Description Required Default
arguments cadeia Os argumentos de chamada de função. Yes
item_id cadeia O ID do item. Yes
output_index inteiro O índice do item de saída. Yes
tipo enumeração
Valores possíveis: response.function_call_arguments.done
Yes

ResponseInProgressEvent

Emitido quando a resposta está em andamento.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.in_progress.

Valores possíveis: response.in_progress
Yes

ResponseIncompleteEvent

Um evento emitido quando uma resposta é concluída como incompleta.

Name Tipo Description Required Default
response response Yes
tipo enumeração O tipo de evento. Sempre response.incomplete.

Valores possíveis: response.incomplete
Yes

responseItemList

Uma lista de itens de resposta.

Name Tipo Description Required Default
dados matriz Uma lista de itens usados para gerar essa resposta. Yes
first_id cadeia A ID do primeiro item da lista. Yes
has_more boolean Se há mais itens disponíveis. Yes
last_id cadeia A ID do último item da lista. Yes
objeto enumeração O tipo de objeto retornado deve ser list.
Valores possíveis: list
Yes

ResponseModalities

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:

["text", "audio"]

Nenhuma propriedade definida para esse componente.

ResponseModalitiesTextOnly

Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:

["text"]

Em breve, essa API dará suporte a outras modalidades de saída, incluindo áudio e imagens.

Nenhuma propriedade definida para esse componente.

ResponseOutputItemAddedEvent

Emitido quando um novo item de saída é adicionado.

Name Tipo Description Required Default
item OutputItem Yes
output_index inteiro O índice do item de saída que foi adicionado.
Yes
tipo enumeração O tipo de evento. Sempre response.output_item.added.

Valores possíveis: response.output_item.added
Yes

ResponseOutputItemDoneEvent

Emitido quando um item de saída é marcado como concluído.

Name Tipo Description Required Default
item OutputItem Yes
output_index inteiro O índice do item de saída que foi marcado como concluído.
Yes
tipo enumeração O tipo de evento. Sempre response.output_item.done.

Valores possíveis: response.output_item.done
Yes

ResponseProperties

Name Tipo Description Required Default
instructions cadeia Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo.

Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas.
No
max_output_tokens inteiro Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado da conversa.
No
previous_response_id cadeia A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. No
reasoning Reasoning Opções de configuração para modelos de raciocínio.
No
enviar SMS objeto Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais:
– entradas e saídas de texto
– Saídas estruturadas
No
└─ Formato TextResponseFormatConfiguration Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
No
tools matriz Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.

As duas categorias de ferramentas que você pode fornecer ao modelo são:

- Ferramentas integradas
No
truncation enumeração A estratégia de truncamento a ser usada para a resposta do modelo.
- auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa.
- disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.

Valores possíveis: auto, disabled
No

ResponseRefusalDeltaEvent

Emitido quando há um texto de recusa parcial.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo à qual o texto de recusa é adicionado.
Yes
delta cadeia O texto de recusa que é adicionado.
Yes
item_id cadeia A ID do item de saída ao qual o texto de recusa é adicionado.
Yes
output_index inteiro O índice do item de saída ao qual o texto de recusa é adicionado.
Yes
tipo enumeração O tipo de evento. Sempre response.refusal.delta.

Valores possíveis: response.refusal.delta
Yes

ResponseRefusalDoneEvent

Emitido quando o texto de recusa é finalizado.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que o texto de recusa é finalizado.
Yes
item_id cadeia A ID do item de saída em que o texto de recusa é finalizado.
Yes
output_index inteiro O índice do item de saída em que o texto de recusa é finalizado.
Yes
refusal cadeia O texto finalizado de recusa.
Yes
tipo enumeração O tipo de evento. Sempre response.refusal.done.

Valores possíveis: response.refusal.done
Yes

responseStreamEvent

Name Tipo Description Required Default
anotação Annotation Yes
annotation_index inteiro O índice da anotação que foi adicionada.
Yes
arguments cadeia Os argumentos de chamada de função. Yes
codificar cadeia O código do erro.
Yes
code_interpreter_call CodeInterpreterToolCall Uma chamada de ferramenta para executar o código.
Yes
content_index inteiro O índice da parte de conteúdo que o conteúdo do texto é finalizado.
Yes
delta cadeia O delta de texto que foi adicionado.
Yes
item OutputItem O item de saída que foi marcado como concluído.
Yes
item_id cadeia A ID do item de saída em que o conteúdo do texto é finalizado.
Yes
mensagem cadeia A mensagem de erro.
Yes
output_index inteiro O índice do item de saída que o conteúdo do texto é finalizado.
Yes
param cadeia O parâmetro de erro.
Yes
part OutputContent A parte do conteúdo que está pronta.
Yes
refusal cadeia O texto finalizado de recusa.
Yes
response response A resposta estava incompleta.
Yes
enviar SMS cadeia O conteúdo do texto finalizado.
Yes
tipo enumeração O tipo de evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Emitido quando uma anotação de texto é adicionada.

Name Tipo Description Required Default
anotação Annotation Yes
annotation_index inteiro O índice da anotação que foi adicionada.
Yes
content_index inteiro O índice da parte de conteúdo à qual a anotação de texto foi adicionada.
Yes
item_id cadeia A ID do item de saída ao qual a anotação de texto foi adicionada.
Yes
output_index inteiro O índice do item de saída ao qual a anotação de texto foi adicionada.
Yes
tipo enumeração O tipo de evento. Sempre response.output_text.annotation.added.

Valores possíveis: response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Emitido quando há um delta de texto adicional.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo à qual o delta de texto foi adicionado.
Yes
delta cadeia O delta de texto que foi adicionado.
Yes
item_id cadeia A ID do item de saída ao qual o delta de texto foi adicionado.
Yes
output_index inteiro O índice do item de saída ao qual o delta de texto foi adicionado.
Yes
tipo enumeração O tipo de evento. Sempre response.output_text.delta.

Valores possíveis: response.output_text.delta
Yes

ResponseTextDoneEvent

Emitido quando o conteúdo do texto é finalizado.

Name Tipo Description Required Default
content_index inteiro O índice da parte de conteúdo que o conteúdo do texto é finalizado.
Yes
item_id cadeia A ID do item de saída em que o conteúdo do texto é finalizado.
Yes
output_index inteiro O índice do item de saída que o conteúdo do texto é finalizado.
Yes
enviar SMS cadeia O conteúdo do texto finalizado.
Yes
tipo enumeração O tipo de evento. Sempre response.output_text.done.

Valores possíveis: response.output_text.done
Yes

ResponseUsage

Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.

Name Tipo Description Required Default
input_tokens inteiro O número de tokens de entrada. Yes
output_tokens inteiro O número de tokens de saída. Yes
output_tokens_details objeto Um detalhamento detalhado dos tokens de saída. Yes
└─ tokens_de_raciocínio inteiro O número de tokens de raciocínio. No
total_tokens inteiro O número total de tokens usados. Yes

Screenshot

Uma ação de captura de tela.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot.

Valores possíveis: screenshot
Yes

Scroll

Uma ação de rolagem.

Name Tipo Description Required Default
scroll_x inteiro A distância de rolagem horizontal.
Yes
scroll_y inteiro A distância de rolagem vertical.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll.

Valores possíveis: scroll
Yes
x inteiro A coordenada x em que a rolagem ocorreu.
Yes
y inteiro A coordenada y em que a rolagem ocorreu.
Yes

StopConfiguration

Até 4 sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de parada.

Esse componente pode ser um dos seguintes:

TextResponseFormatConfiguration

Um objeto que especifica o formato que o modelo deve gerar.

A configuração { "type": "json_schema" } habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.

O formato padrão é { "type": "text" } sem opções adicionais.

Não recomendado para modelos gpt-4o e mais recentes:

A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.

Esse componente pode ser um dos seguintes:

TextResponseFormatJsonSchema

Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre saídas estruturadas.

Name Tipo Description Required Default
description cadeia Uma descrição de para que serve o formato de resposta, usada pelo modelo para determinar a forma de responder no formato.
No
name cadeia O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64.
No
esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Yes
strict boolean Se deseja habilitar a adesão estrita do esquema ao gerar a saída.
Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true.
No False
tipo enumeração O tipo de formato de resposta que está sendo definido. Sempre json_schema.
Valores possíveis: json_schema
Yes

Tool

Esse componente pode ser um dos seguintes:

ToolChoiceFunction

Use essa opção para forçar o modelo a chamar uma função específica.

Name Tipo Description Required Default
name cadeia O nome da função a ser chamada. Yes
tipo enumeração Para a chamada de função, o tipo é sempre function.
Valores possíveis: function
Yes

ToolChoiceOptions

Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.

Property Value
Description Controla qual ferramenta (se houver) é chamada pelo modelo.

none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.

auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.

required significa que o modelo deve chamar uma ou mais ferramentas.
Type cadeia
Values none
auto
required

ToolChoiceTypes

Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.

Name Tipo Description Required Default
tipo enumeração O tipo de ferramenta hospedada que o modelo deve usar. Valores permitidos são:
- file_search
- computer_use_preview

Valores possíveis: file_search, computer_use_preview
Yes

Tipo

Uma ação para digitar texto.

Name Tipo Description Required Default
enviar SMS cadeia O texto a ser digitado.
Yes
tipo enumeração Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.

Valores possíveis: type
Yes

UpdateVectorStoreFileAttributesRequest

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Yes

UrlCitation

Uma citação para um recurso da Web usado para gerar uma resposta de modelo.

Name Tipo Description Required Default
end_index inteiro O índice do último caractere da citação de URL na mensagem.
Yes
start_index inteiro O índice do primeiro caractere da citação de URL na mensagem.
Yes
title cadeia O título do recurso da Web.
Yes
tipo enumeração O tipo da citação de URL. Sempre url_citation.

Valores possíveis: url_citation
Yes
url cadeia URL do recurso da Web.
Yes

VectorStoreFileAttributes

Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.

Nenhuma propriedade definida para esse componente.

VectorStoreFileContentResponse

Representa o conteúdo analisado de um arquivo de repositório de vetores.

Name Tipo Description Required Default
dados matriz Conteúdo analisado do arquivo. Yes
has_more boolean Indica se há mais páginas de conteúdo a serem buscadas. Yes
next_page cadeia O token para a próxima página, se houver. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.file_content.page
Valores possíveis: vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Tipo Description Required Default
filters ComparisonFilter ou CompoundFilter Um filtro a ser aplicado com base em atributos de arquivo. No
max_num_results inteiro O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50 inclusivo. No 10
consulta cadeia de caracteres ou matriz Uma cadeia de caracteres de consulta para uma pesquisa Yes
ranking_options objeto Opções de classificação para pesquisa. No
└─ ranker enumeração Valores possíveis: auto, default-2024-11-15 No
└─ limite_de_pontuação number No 0
rewrite_query boolean Se deve reescrever a consulta em linguagem natural para a busca em vetores. No False

VectorStoreSearchResultContentObject

Name Tipo Description Required Default
enviar SMS cadeia O conteúdo do texto retornado da pesquisa. Yes
tipo enumeração O tipo de conteúdo.
Valores possíveis: text
Yes

VectorStoreSearchResultItem

Name Tipo Description Required Default
attributes VectorStoreFileAttributes Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Yes
conteúdo matriz Partes de conteúdo do arquivo. Yes
file_id cadeia A ID do arquivo do repositório de vetores. Yes
filename cadeia O nome do arquivo de repositório de vetores. Yes
pontuação number A pontuação de similaridade para o resultado. Yes

VectorStoreSearchResultsPage

Name Tipo Description Required Default
dados matriz A lista de itens de resultado da pesquisa. Yes
has_more boolean Indica se há mais resultados a serem buscados. Yes
next_page cadeia O token para a próxima página, se houver. Yes
objeto enumeração O tipo de objeto, que é sempre vector_store.search_results.page
Valores possíveis: vector_store.search_results.page
Yes
search_query matriz Yes

VoiceIdsShared

Nenhuma propriedade definida para esse componente.

Wait

Uma ação de espera.

Name Tipo Description Required Default
tipo enumeração Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definida como wait.

Valores possíveis: wait
Yes

ReasoningEffort

Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.

Property Value
Description Restringe o esforço de raciocínio para modelos de raciocínio.
Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
Type cadeia
Default meio
Values low
medium
high

errorEvent

Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.

Name Tipo Description Required Default
dados error Yes
evento cadeia Yes

Enumeração de evento: ErrorEventEnum

Value Description
erro

doneEvent

Ocorre quando um fluxo termina.

Name Tipo Description Required Default
dados cadeia Yes
evento cadeia Yes

Enumeração de evento: DoneEventEnum

Value Description
done

Enumeração de dados: DoneEventDataEnum

Value Description
[DONE]

Próximas etapas

Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.