Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Observação
Este documento refere-se ao portal do Microsoft Foundry (clássico ).
🔍 Exiba a documentação do Microsoft Foundry (novo) para saber mais sobre o novo portal.
Este artigo fornece detalhes sobre a API REST de pontos de extremidade de inferência para o OpenAI do Azure.
Especificações de API
O gerenciamento e a interação com modelos e recursos do OpenAI do Azure são divididos em três superfícies principais da API:
- Painel de controle
- Plano de dados – criação
- Plano de dados – inferência
Cada superfície/especificação da API encapsula um conjunto diferente de recursos do OpenAI do Azure. Cada API tem seu próprio conjunto exclusivo de versões de API de versão prévia e estável/disponibilidade geral (GA). Atualmente, lançamentos de versões prévias tendem a seguir uma cadência mensal.
Important
Agora há uma nova API de inferência de visualização. Saiba mais em nosso guia de ciclo de vida da API.
| API | Lançamento de versão prévia mais recente | Versão de GA mais recente | Specifications | Description |
|---|---|---|---|---|
| Plano de controle | 2025-07-01-preview |
2025-06-01 |
Arquivos de especificação | A API do painel de controle é usada para operações como a criação de recursos, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O painel de controle também controla o que é possível fazer com recursos como Azure Resource Manager, Bicep, Terraform e a CLI do Azure. |
| Plano de dados | v1 preview |
v1 |
Arquivos de especificação | A API do plano de dados controla operações de inferência e criação. |
Authentication
O OpenAI do Azure fornece dois métodos de autenticação. Você pode usar chaves de API ou o Microsoft Entra ID.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API deverão incluir a Chave de API no cabeçalho HTTP da
api-key. O Início Rápido fornece um tutorial de como fazer chamadas com esse tipo de autenticação.Autenticação do Microsoft Entra ID: você pode autenticar uma chamada à API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o cabeçalho
Authorization. O token fornecido deverá ser precedido porBearer, por exemploBearer YOUR_AUTH_TOKEN. Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.
Controle de versão da API REST
As APIs de serviço são versões que usam o parâmetro de consulta api-version. Todas as versões seguem a estrutura de data AAAA-MM-DD. Por exemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a 2025-04-01-preview versão prévia da especificação de inferência do plano de dados do Azure OpenAI.
Se você procura a documentação sobre a versão mais recente da API em GA, consulte a API de inferência do plano de dados em GA mais recente
Conclusões – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| best_of | inteiro | Gera best_of conclusões do lado do servidor e retorna a “melhor” (aquela com a menor probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos retornar – best_of deve ser maior que n.Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Transmite o prompt de volta além da conclusão | No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. | No | 0 |
| logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado. |
No | None |
| logprobs | inteiro | Inclua as probabilidades de log nos logprobs tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retorna o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
No | None |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo. |
No | 16 |
| n | inteiro | Quantas conclusões devem ser geradas para cada prompt. Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. | No | 0 |
| solicitação | cadeia de caracteres ou matriz | O prompt para o qual gerar conclusões, codificadas como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo gerará como se fosse desde o início de um novo documento. |
Yes | |
| seed | inteiro | Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixa de gerar mais tokens. O texto retornado não conterá a sequência de parada. | No | |
| fluxo | boolean | Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor contendo apenas dados, à medida que ficarem disponíveis, com o fluxo sendo encerrado por uma mensagem data: [DONE].
Exemplo de código Python. |
No | False |
| suffix | cadeia | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornam mais focado e determinístico. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de Status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Inserções – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos de machine learning e algoritmos.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | A ID de implantação do modelo que foi implantado. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dimensions | inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
No | |
| encoding_format | cadeia | O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64. Usa float como padrão. |
No | |
| entrada | cadeia de caracteres ou matriz | Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e toda matriz deve ter 2.048 dimensões ou menos. |
Yes | |
| input_type | cadeia | tipo de entrada de inserção de pesquisa a ser usada | No | |
| usuário | cadeia | Um identificador exclusivo representando o seu usuário final, que pode ajudar a monitorar e a detectar abusos. | No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Examples
Example
Retorne as inserções para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Respostas: Código de Status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusões de chat – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Cria uma conclusão para a mensagem de chat
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ Formato | enumeração | Especifica o formato do áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16. Valores possíveis: wav, , mp3, flac, opus, pcm16 |
No | |
| └─ voz | enumeração | Especifica o tipo de voz. As vozes com suporte são alloy, echo, , fable, onyx, novae shimmer.Valores possíveis: alloy, , echo, fable, onyx, , novashimmer |
No | |
| data_sources | matriz | As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação extra só é compatível com o Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
No | 0 |
| function_call | cadeia de caracteres ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando não há funções presentes.
auto é o padrão, caso haja funções presentes. |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de desvio associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. |
No | False |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
No | |
| messages | matriz | Uma lista de mensagens que resumem a conversa até agora. Exemplo de código Python. | Yes | |
| metadados | objeto | Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no dashboard de conclusões armazenadas. | No | |
| modalities | ChatCompletionModalities | Tipos de saída que você deseja que o modelo gere para esta solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
No | |
| n | inteiro | Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| previsão | PredictionContent | Configuração para uma Saída Prevista, que pode melhorar significativamente os tempos de resposta quando grandes partes da resposta do modelo já são conhecidas de antemão. Isso é mais comum ao regenerar um arquivo com apenas pequenas alterações na maior parte do conteúdo. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
No | 0 |
| reasoning_effort | enumeração |
somente modelos o1 Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.Valores possíveis: low, , mediumhigh |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.Definir para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | inteiro | Esse recurso está em Versão Beta. Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências em que a API para de gerar tokens adicionais. |
No | |
| armazenar | boolean | Se a saída dessa solicitação de conclusão de chat deve ou não ser armazenada para uso em nossos produtos de avaliação ou destilação de modelo. | No | |
| fluxo | boolean | Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor contendo apenas dados à medida que ficam disponíveis, com o fluxo encerrado por uma mensagem data: [DONE].
Exemplo de código Python. |
No | False |
| stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornam mais focado e determinístico. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando não há nenhuma ferramenta presente.
auto é o padrão se ferramentas estiverem presente. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.
logprobs precisa estar definido como true se esse parâmetro for usado. |
No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
No | |
| user_security_context | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. | No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados do Azure Search e na identidade gerenciada atribuída pelo sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados de vetor de imagem do Azure Search.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados de vetor do Azure Search, na mensagem anterior do assistente e na identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Mongo DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Elasticsearch fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o recurso Pinecone fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcreve o áudio no idioma de entrada.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| modelo | cadeia | ID do modelo a ser usado. As opções são gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1gpt-4o-transcribe-diarize. |
Yes | |
| arquivo | cadeia | O objeto do arquivo de áudio a transcrever. | Yes | |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. | No | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição.
response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. |
No | ['segment'] |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto | |
| text/plain | cadeia | Texto transcrito no formato de saída (quando response_format era de text, vtt ou srt). |
Examples
Example
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcreve e traduz o áudio de entrada em texto em inglês.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio a ser traduzido. | Yes | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto | |
| text/plain | cadeia | Texto transcrito no formato de saída (quando response_format era um de texto, vtt ou srt). |
Examples
Example
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Fala – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Gera áudio a partir do texto de entrada.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto para o qual sintetizar áudio. O tamanho máximo é de 4.096 caracteres. | Yes | |
| response_format | enumeração | O formato no qual sintetizar o áudio. Valores possíveis: mp3, , opus, aac, flac, , wavpcm |
No | |
| speed | number | A velocidade do áudio sintetizado. Selecione um valor de 0.25 a 4.0.
1.0 é o padrão. |
No | 1.0 |
| voice | enumeração | A voz a ser usada para sintetização de voz. Valores possíveis: alloy, , echo, fable, onyx, , novashimmer |
Yes |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | cadeia |
Examples
Example
Sintetiza o áudio a partir do texto fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respostas: Código de Status: 200
{
"body": "101010101"
}
Gerações de imagem – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Gera um lote de imagens direto de uma legenda em uma determinada implantação de um modelo da série DALL-E ou gpt-image-1
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | imageBackground | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. | No | auto |
| n | inteiro | O número de imagens a serem geradas. Para o dall-e-3, há suporte apenas para n=1. | No | 1 |
| output_compression | inteiro | O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com o formato de saída jpeg. | No | 100 |
| output_format | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. | No | png |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para a série gpt-image-1 e 4000 caracteres para dall-e-3 | Yes | |
| partial_images | inteiro | O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas de streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. | 0 | |
| fluxo | boolean | Edite a imagem no modo de streaming. | no | false |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. Esse parâmetro não tem suporte para gpt-image-1modelos de série que sempre retornarão imagens codificadas em base64.Valores possíveis: url, b64_json. |
No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| estilo | imageStyle | O estilo das imagens geradas. Só há suporte para dall-e-3. | No | vivid |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | No |
Responses
Código de Status: 200
Descrição: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de Status: padrão
Descrição: ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Cria imagens a partir de uma solicitação.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de Status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Gerações de imagem – Editar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Edita uma imagem a partir de uma legenda de texto em uma implementação do modelo gpt-image-1
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | cadeia de caracteres ou matriz | As imagens a serem editadas. Deve ser um arquivo de imagem com suporte ou uma matriz de imagens. Cada imagem deve ser um png ou um arquivo jpg inferior a 50 MB. | Yes | |
| fidelidade_de_entrada | cadeia | Controlar o esforço que o modelo exercerá para corresponder ao estilo e aos recursos, especialmente os recursos faciais, das imagens de entrada. Esse parâmetro só tem suporte para modelos da série gpt-image-1. Oferece suporte a high e low. |
no |
low. |
| máscara | cadeia | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, menor que 4 MB e ter as mesmas dimensões que a imagem. | No | |
| n | inteiro | O número de imagens a serem geradas. Esse valor precisa estar entre 1 e 10. | No | 1 |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres. | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| partial_images | O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas de streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. | |||
| fluxo | boolean | Edite a imagem no modo de streaming. | no | false |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | No |
Responses
Código de Status: 200
Descrição: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de Status: padrão
Descrição: ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Lista – Assistentes
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Retorna uma lista de assistentes.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Retorna uma lista de assistentes.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Criar – Assistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Crie um assistente com um modelo e instruções.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | Yes | ||
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a este assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| └─ armazenamentos_de_vetores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, retrieval ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Crie um assistente com um modelo e instruções.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respostas: Código de Status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obter – Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Recupera um assistente.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | A ID do assistente a ser recuperado. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Recupera um assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar – Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica um assistente.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | A ID do assistente a ser modificada. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O tamanho máximo é de 32.768 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | No | ||
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Substitui a lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | Substitui o repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, retrieval ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifica um assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respostas: Código de Status: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Excluir – Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Excluir um assistente.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | A ID do assistente a ser excluída. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Exclui um assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Criar – Thread
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Criar um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| messages | matriz | Uma lista de mensagens para iniciar o thread. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No | |
| └─ armazenamentos_de_vetores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Cria um thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obter – Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread a ser recuperado. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Recupera um thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar – Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread a ser modificado. Somente o metadata pode ser modificado. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de Arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifica um thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Excluir – Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Excluir um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread a ser excluído. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Exclui um thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Listar – Mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Retorna uma lista de mensagens para um determinado thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads aos quais as mensagens pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| run_id | consulta | No | cadeia | Filtre mensagens pela ID de execução que as gerou. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
Listar Mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Criar – Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Criar uma mensagem.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID dos tópicos para os quais criar uma mensagem. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| função | cadeia | A função da entidade que está criando a mensagem. Entre os valores permitidos estão: - user: indica que a mensagem foi enviada por um usuário real e, geralmente, deve ser usada para representar mensagens geradas por usuários.- assistant: indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Yes |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Criar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respostas: Código de Status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obter – Mensagem
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recupere uma mensagem.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads aos quais essa mensagem pertence. |
| message_id | caminho | Yes | cadeia | A ID da mensagem a ser recuperada. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Recupere uma mensagem.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar – Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica uma mensagem.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread ao qual essa mensagem pertence. |
| message_id | caminho | Yes | cadeia | A ID da mensagem a ser modificada. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modifique uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Criar – Thread e Executar
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Crie um thread e execute-o em uma solicitação.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente a ser usada para executar esta execução. | Yes | |
| instructions | cadeia | Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de conclusão especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE]. |
No | |
| stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| conversa | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crie um thread e execute-o em uma solicitação.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Listar – Execuções
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Retorna uma lista de execuções que pertencem a um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread à qual a execução pertence. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Retorna uma lista de execuções que pertencem a um thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Criar – Execução
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Crie uma execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread a ser executado. |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | cadeia | Acrescenta instruções adicionais ao final das instruções para a execução. Isto é útil para modificar o comportamento por execução sem substituir outras instruções. | No | |
| additional_messages | matriz | Acrescenta mensagens adicionais ao thread antes de criar a execução. | No | |
| assistant_id | cadeia | A ID do assistente a ser usada para executar esta execução. | Yes | |
| instructions | cadeia | Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de conclusão especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | A ID do Modelo a ser usado para realizar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE]. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crie uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obter – Execução
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera uma execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads executados. |
| run_id | caminho | Yes | cadeia | A ID da execução a ser recuperada. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Obtém uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar – Execução
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica uma execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads executados. |
| run_id | caminho | Yes | cadeia | A ID da execução a ser modificada. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifica uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Enviar – Saídas de ferramenta para execução
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Quando uma execução tem o status: "requires_action" e o required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta quando todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID dos threads aos quais essa execução pertence. |
| run_id | caminho | Yes | cadeia | A ID da execução que requer o envio de saída da ferramenta. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE]. |
No | |
| tool_outputs | matriz | Uma lista de ferramentas para as quais as saídas estão sendo enviadas. | Yes |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Quando uma execução tem o status: "requires_action" e o required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta quando todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar – Execução
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Cancela uma execução que está in_progress.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread à qual essa execução pertence. |
| run_id | caminho | Yes | cadeia | A ID da execução a ser cancelada. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Cancela uma execução que está in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista – Etapas de Execução
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Retorna uma lista de etapas que pertencem a uma execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID da thread à qual as etapas de execução e executar pertencem. |
| run_id | caminho | Yes | cadeia | A ID da execução à qual as etapas de execução pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia | |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Retorna uma lista de etapas que pertencem a uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Obter – Etapa de Execução
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Recupera uma etapa de execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | A ID do thread à qual a etapa de execução e executar pertence. |
| run_id | caminho | Yes | cadeia | A ID da execução à qual a etapa de execução pertence. |
| step_id | caminho | Yes | cadeia | A ID da etapa de execução a ser recuperada. |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a serem incluídos na resposta. Atualmente, o único valor com suporte é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
| api-version | consulta | Yes | cadeia |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Recupera uma etapa de execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista – Repositórios de Vetores
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Retorna uma lista de repositórios de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Retorna uma lista de repositórios de vetores.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Criar – Repositório de Vetores
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Crie um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. Somente aplicável se file_ids não estiver vazio. |
No | |
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Cria um repositório de vetores.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obter – Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser recuperado. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Recupera um repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar – Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser modificado. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifica um repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Excluir – Repositório de Vetores
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Exclui um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser excluído. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Exclui um repositório de vetores.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista – Arquivos de Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual os arquivos pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | No | cadeia Valores possíveis: in_progress, , completed, failedcancelled |
Filtrar por status do arquivo. Uma opção entre in_progress, completed, failed, cancelled. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retorna uma lista de arquivos de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar – Arquivo de Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Crie um arquivo de repositório de vetores anexando um Arquivo a um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores para o qual criar um Arquivo. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. |
No | |
| file_id | cadeia | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
Yes |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Crie um arquivo de repositório de vetores anexando um Arquivo a um repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Respostas: Código de Status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obter – Arquivo de Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera um arquivo de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | A ID do arquivo que está sendo recuperado. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Recupera um arquivo de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Excluir – Arquivo de Repositório de Vetores
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Exclui um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão do arquivo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | A ID do arquivo a ser excluído. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Exclui um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão do arquivo.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Atualizar atributos em um arquivo de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | A ID do arquivo para atualizar atributos. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. |
Yes |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Recuperar o conteúdo do arquivo do repositório vetor
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recupere o conteúdo analisado de um arquivo de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores. |
| file_id | caminho | Yes | cadeia | A ID do arquivo no repositório de vetores. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Pesquisa no repositório de vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Pesquise em um repositório de vetores partes relevantes com base em um filtro de atributos de consulta e arquivo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores a ser pesquisado. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50 inclusivo. | No | 10 |
| consulta | cadeia de caracteres ou matriz | Uma cadeia de caracteres de consulta para uma pesquisa | Yes | |
| ranking_options | objeto | Opções de classificação para pesquisa. | No | |
| └─ ranker | enumeração | Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ limite_de_pontuação | number | No | 0 | |
| rewrite_query | boolean | Se deve reescrever a consulta em linguagem natural para a busca em vetores. | No | False |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Criar – Lote de Arquivos de Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Crie um lote de arquivos de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores para o qual criar um lote de arquivos. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. |
No | |
| file_ids | matriz | Uma lista de IDs de Arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
Yes |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Crie um lote de arquivos de repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respostas: Código de Status: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Obter – Lote de Arquivos de Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera um lote de arquivos de repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | O ID do lote de arquivos que está sendo recuperado. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Recupera um lote de arquivos de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar – Lote de Arquivos de Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Cancele um lote de arquivos de repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | A ID do lote de arquivos a ser cancelada. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Cancele um lote de arquivos de repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista – Arquivos de Lote de Arquivos de Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos de repositório de vetores em um lote.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | A ID do repositório de vetores à qual os arquivos pertencem. |
| batch_id | caminho | Yes | cadeia | A ID do lote de arquivos à qual os arquivos pertencem. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo carimbo de data/hora created_at dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista. Por exemplo, caso faça uma solicitação de lista e receba 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo, para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | No | cadeia Valores possíveis: in_progress, , completed, failedcancelled |
Filtrar por status do arquivo. Uma opção entre in_progress, completed, failed, cancelled. |
| api-version | consulta | Yes | cadeia | versão da api |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retorna uma lista de arquivos de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar – Sessão em Tempo Real
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime. Pode ser configurado com os mesmos parâmetros de sessão que o session.update evento cliente.
Ele responde com um objeto de sessão, além de uma chave client_secret, que contém um token de API efêmero que pode ser usado para autenticar clientes de navegador na API em tempo real.
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits em uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de byte little-endian.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser definido como null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. Filtrar o áudio pode melhorar a precisão do VAD e da detecção de turnos (reduzindo falsos positivos) e o desempenho do modelo ao aprimorar a percepção do áudio de entrada. |
No | |
| └─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada, que por padrão está desativada e pode ser ajustada para null para desativar quando ativada. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio do ponto de extremidade de transcrições e deve ser tratada como diretriz de conteúdo de áudio de entrada, em vez de precisamente o que o modelo ouviu. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição. |
No | |
| └─ idioma | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ modelo | cadeia | O modelo a ser usado para transcrição, as opções atuais sãogpt-4o-transcribe, , , gpt-4o-transcribe-diarizee gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15. whisper-1 |
No | |
| └─ comando | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. Usa inf como padrão. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| modelo | cadeia | O nome da implantação usada para essa sessão. |
No | |
| output_audio_format | enumeração | O formato do áudio de saída. As opções são pcm16, g711_ulaw ou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho. |
No | 0.8 |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função. |
No | auto |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de turnos, seja por VAD do servidor ou VAD semântico. Isso pode ser configurado para null para desativar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário fica inaudível com uhhm, o modelo pontuará uma baixa probabilidade de fim de turno e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ criar_resposta | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de parada do VAD. |
No | True |
| └─ ânsia | enumeração | Usado apenas para o modo semantic_vad. A ânsia do modelo de responder.
low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, , medium, highauto |
No | |
| └─ resposta_de_interrupção | boolean | Se deve ou não interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorrer um evento de início de VAD. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para o modo server_vad. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | inteiro | Usado apenas para o modo server_vad. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. |
No | |
| └─ limite | number | Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ tipo | enumeração | O tipo de detecção de turno. Valores possíveis: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Código de Status: 200
Descrição: sessão criada com êxito.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Criar - Sessão de Transcrição em Tempo Real
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime especificamente para transcrições em tempo real.
Pode ser configurado com os mesmos parâmetros de sessão que o transcription_session.update evento cliente.
Ele responde com um objeto de sessão, além de uma chave client_secret, que contém um token de API efêmero que pode ser usado para autenticar clientes de navegador na API em tempo real.
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits em uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de byte little-endian.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser definido como null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. Filtrar o áudio pode melhorar a precisão do VAD e da detecção de turnos (reduzindo falsos positivos) e o desempenho do modelo ao aprimorar a percepção do áudio de entrada. |
No | |
| └─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição. |
No | |
| └─ idioma | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ modelo | enumeração | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15whisper-1.Valores possíveis: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └─ comando | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de turnos, seja por VAD do servidor ou VAD semântico. Isso pode ser configurado para null para desativar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário fica inaudível com uhhm, o modelo pontuará uma baixa probabilidade de fim de turno e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ criar_resposta | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de parada do VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ ânsia | enumeração | Usado apenas para o modo semantic_vad. A ânsia do modelo de responder.
low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, , medium, highauto |
No | |
| └─ resposta_de_interrupção | boolean | Se deve ou não interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorrer um evento de início de VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para o modo server_vad. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | inteiro | Usado apenas para o modo server_vad. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. |
No | |
| └─ limite | number | Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ tipo | enumeração | O tipo de detecção de turno. Valores possíveis: server_vad, semantic_vad |
No |
Responses
Código de Status: 200
Descrição: sessão criada com êxito.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Cria uma resposta de modelo.
Corpo da solicitação
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | No | ||
| entrada | cadeia de caracteres ou matriz | Entradas de modelo | Yes | |
| instructions | cadeia | Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado da conversa. |
No | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. |
No | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversa. |
No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. | No | |
| armazenar | boolean | Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API. |
No | True |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. Consulte a seção Streaming abaixo para obter mais informações. |
No | False |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais: – Entradas e saídas de texto – Saídas estruturadas |
No | |
| └─ Formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa. - disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respostas – itens de entrada
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera uma resposta de modelo com a ID fornecida.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | A ID da resposta a ser recuperada. |
| include | consulta | No | matriz | Campos adicionais a serem incluídos na resposta. Consulte o include parâmetro para criação de resposta acima para obter mais informações. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Excluir resposta
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Exclui uma resposta de modelo com a ID fornecida.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | A ID da resposta a ser excluída. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
Código de status: 404
Descrição: Não encontrado
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Código de Status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respostas – lista de itens de resposta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Retorna uma lista de itens de entrada para uma determinada resposta.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | URL da sequência de caracteres | Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do OpenAI do Azure). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | A ID da resposta para a qual recuperar itens de entrada. |
| limit | consulta | No | inteiro | Um limite no número de objetos a serem retornados. "Limit" pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
A ordem para retornar os itens de entrada. O padrão é asc.- asc: retorne os itens de entrada em ordem crescente.- desc: retorne os itens de entrada em ordem decrescente. |
| after | consulta | No | cadeia | Uma ID de item para listar itens depois, usada na paginação. |
| before | consulta | No | cadeia | Uma ID de item para listar itens anteriormente, usada na paginação. |
Cabeçalho da solicitação
Use a autenticação baseada em token ou a chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
exemplo:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeescopo: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia | Forneça a chave da API do OpenAI do Azure aqui |
Responses
Código de Status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | error | No |
errorBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | No | ||
| mensagem | cadeia | No |
erro
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Erro interno com detalhes adicionais. | No | |
| param | cadeia | No | ||
| tipo | cadeia | No |
innerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No |
innerErrorCode
Códigos de erro para o objeto de erro interno.
| Property | Value |
|---|---|
| Description | Códigos de erro para o objeto de erro interno. |
| Type | cadeia |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | dalleError | No |
dalleError
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Erro interno com detalhes adicionais. | No | |
| param | cadeia | No | ||
| tipo | cadeia | No |
dalleInnerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No | |
| revised_prompt | cadeia | A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. | No |
contentFilterCompletionTextSpan
Descreve um intervalo dentro do texto de conclusão gerado. Deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | inteiro | Deslocamento do primeiro ponto de código UTF32 que é excluído do intervalo. Esse campo é sempre igual a completion_start_offset em intervalos vazios. Esse campo é sempre maior que completion_start_offset para intervalos não vazios. | Yes | |
| completion_start_offset | inteiro | Deslocamento do ponto de código UTF32 que inicia o intervalo. | Yes |
contentFilterResultBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | cadeia | No |
contentFilterDetectedResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| citation | objeto | No | ||
| └─ URL | cadeia | No | ||
| └─ Licença | cadeia | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | No |
contentFilterIdResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | cadeia | No |
contentFilterResultsBase
Informações sobre os resultados da filtragem de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | No | ||
| filtered | boolean | Yes |
promptFilterResult
Resultados de filtragem de conteúdo para uma única solicitação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No | |
| prompt_index | inteiro | No |
promptFilterResults
Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.
Nenhuma propriedade definida para esse componente.
dalleContentFilterResults
Informações sobre os resultados da filtragem de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. | No | 0 |
| logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. | No | |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). Isso não é compatível com modelos da série o1. | No | 4096 |
| metadados | objeto | Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no dashboard de conclusões armazenadas. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. | No | 0 |
| stop | cadeia de caracteres ou matriz | Até 4 sequências em que a API para de gerar tokens adicionais. | No | |
| armazenar | boolean | Se a saída dessa solicitação de conclusão de chat deve ou não ser armazenada para uso em nossos produtos de avaliação ou destilação de modelo. | No | |
| fluxo | boolean | Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos de servidor contendo apenas dados à medida que ficam disponíveis, e o fluxo é encerrado por uma mensagem data: [DONE]. |
No | False |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. | No |
createCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| best_of | inteiro | Gera best_of conclusões do lado do servidor e retorna a “melhor” (aquela com a menor probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos retornar.
best_of deve ser maior que n.Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Transmite o prompt de volta além da conclusão |
No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
No | 0 |
| logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado. |
No | None |
| logprobs | inteiro | Inclua as probabilidades de log nos logprobs tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob do token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
No | None |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo. |
No | 16 |
| n | inteiro | Quantas conclusões devem ser geradas para cada prompt. Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
No | 0 |
| solicitação | cadeia de caracteres ou matriz | Os prompts para gerar conclusões, codificados como uma sequência, uma matriz de sequências, uma matriz de tokens ou uma matriz de matrizes de tokens. Observe que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento. Portanto, se uma solicitação não for especificada, o modelo será gerado como se fosse o início de um novo documento. |
Yes | |
| seed | inteiro | Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de parada. |
No | |
| fluxo | boolean | Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor contendo apenas dados, à medida que ficarem disponíveis, com o fluxo sendo encerrado por uma mensagem data: [DONE].
Exemplo de código Python. |
No | False |
| suffix | cadeia | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
No |
createCompletionResponse
Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham o mesmo formato (diferentemente do ponto de extremidade do chat).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | A lista de opções de preenchimento que o modelo gerou para o prompt de entrada. | Yes | |
| created | inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. | Yes | |
| id | cadeia | Um identificador exclusivo do preenchimento. | Yes | |
| modelo | cadeia | O modelo usado para conclusão. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. | No | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
No | |
| uso | completionUsage | Estatísticas de uso para a solicitação de preenchimento. | No |
createChatCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ Formato | enumeração | Especifica o formato do áudio de saída. Deve ser um de wav, mp3, flac, opusou pcm16. Valores possíveis: wav, , mp3, flac, opus, pcm16 |
No | |
| └─ voz | enumeração | Especifica o tipo de voz. As vozes com suporte são alloy, echo, , fable, onyx, novae shimmer.Valores possíveis: alloy, , echo, fable, onyx, , novashimmer |
No | |
| data_sources | matriz | As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure. |
No | |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
No | 0 |
| function_call | cadeia de caracteres ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando não há funções presentes.
auto é o padrão, caso haja funções presentes. |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de desvio associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. |
No | False |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
No | |
| messages | matriz | Uma lista de mensagens que resumem a conversa até agora. Exemplo de código Python. | Yes | |
| metadados | objeto | Marcas e valores definidos pelo desenvolvedor usados para filtrar conclusões no dashboard de conclusões armazenadas. | No | |
| modalities | ChatCompletionModalities | Tipos de saída que você deseja que o modelo gere para esta solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
No | |
| n | inteiro | Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| previsão | PredictionContent | Configuração para uma Saída Prevista, que pode melhorar significativamente os tempos de resposta quando grandes partes da resposta do modelo já são conhecidas de antemão. Isso é mais comum ao regenerar um arquivo com apenas pequenas alterações na maior parte do conteúdo. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
No | 0 |
| reasoning_effort | enumeração |
somente modelos o1 Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.Valores possíveis: low, , mediumhigh |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | inteiro | Esse recurso está em Versão Beta. Se especificado, nosso sistema faz um melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências em que a API para de gerar tokens adicionais. |
No | |
| armazenar | boolean | Se a saída dessa solicitação de conclusão de chat deve ou não ser armazenada para uso em nossos produtos de avaliação ou destilação de modelo. | No | |
| fluxo | boolean | Se definido, deltas de mensagem parciais são enviados, como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor contendo apenas dados à medida que ficam disponíveis, com o fluxo encerrado por uma mensagem data: [DONE].
Exemplo de código Python. |
No | False |
| stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando não há nenhuma ferramenta presente.
auto é o padrão se ferramentas estiverem presente. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.
logprobs precisa estar definido como true se esse parâmetro for usado. |
No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
No | |
| user_security_context | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. | No |
userSecurityContext
O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar os incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| application_name | cadeia | O nome do aplicativo. Informações pessoais confidenciais não devem ser incluídas nesse campo. | No | |
| end_user_id | cadeia | Esse identificador é a ID de objeto de usuário do Microsoft Entra ID (antigo Azure Active Directory) usado para autenticar usuários finais no aplicativo de IA generativa. Informações pessoais confidenciais não devem ser incluídas nesse campo. | No | |
| end_user_tenant_id | cadeia | A ID do locatário do Microsoft 365 à qual o usuário final pertence. É obrigatório quando o aplicativo de IA generativa é multilocatário. | No | |
| source_ip | cadeia | Captura o endereço IP original do cliente, aceitando os formatos IPv4 e IPv6. | No |
chatCompletionFunctions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No |
chatCompletionFunctionCallOption
Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes |
chatCompletionFunctionParameters
Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.
Nenhuma propriedade definida para esse componente.
chatCompletionRequestMessage
Esse componente pode ser um dos seguintes:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário.
Nos modelos o1 e mais recentes, as mensagens developer substituem as mensagens system anteriores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do desenvolvedor. | Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, developer.Valores possíveis: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, system.Valores possíveis: system |
Yes |
chatCompletionRequestUserMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, user.Valores possíveis: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado. |
No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| └─ Argumentos | cadeia | Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. | No | |
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| name | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | No | |
| refusal | cadeia | A mensagem de recusa do assistente. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, assistant.Valores possíveis: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
chatCompletionRequestToolMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Yes | |
| função | enumeração | A função do autor das mensagens, nesse caso, tool.Valores possíveis: tool |
Yes | |
| tool_call_id | cadeia | Chamada de ferramenta à qual esta mensagem está respondendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem de função. | Yes | |
| name | cadeia | O nome da função a ser chamada. | Yes | |
| função | enumeração | A função do autor das mensagens, nesse caso, function.Valores possíveis: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestSystemMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Esse componente pode ser um dos seguintes:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio | objeto | Yes | ||
| └─ dados | cadeia | Dados de áudio codificados em Base64. | No | |
| └─ Formato | enumeração | O formato dos dados de áudio codificados. Atualmente compatível com "wav" e "mp3". Valores possíveis: wav, mp3 |
No | |
| tipo | enumeração | O tipo da parte de conteúdo. Sempre input_audio.Valores possíveis: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_url | objeto | Yes | ||
| └─ detalhe | enumeração | Especifica o nível de detalhes da imagem. Saiba mais no Guia do Visão. Valores possíveis: auto, , lowhigh |
No | |
| └─ URL | cadeia | Uma URL da imagem ou os dados de imagem codificados em base64. | No | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: refusal |
Yes |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.
###Discriminador para azureChatExtensionConfiguration
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Yes |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.
| Property | Value |
|---|---|
| Description | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
| Type | cadeia |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Yes |
azureSearchChatExtensionParameters
Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | No | False |
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | No | ||
| ponto de extremidade | cadeia | O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search. | No | |
| filtro | cadeia | Filtro de pesquisa. | No | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice a ser usado conforme disponível no recurso referenciado do Azure Search. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure. | No | |
| semantic_configuration | cadeia | A configuração semântica adicional da consulta. | No | |
| strictness | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | No |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser utilizado como um caminho de arquivo. | No | |
| image_vector_fields | matriz | Os nomes dos campos que representam dados vetoriais de imagens. | No | |
| title_field | cadeia | O nome do campo de índice a ser utilizado como título. | No | |
| url_field | cadeia | O nome do campo de índice a ser utilizado como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | No |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.
| Property | Value |
|---|---|
| Description | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure. |
| Type | cadeia |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o vCore do Azure Cosmos DB for MongoDB. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Yes |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o vCore do Azure Cosmos DB for MongoDB.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | No | False |
| autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão. | Yes | |
| container_name | cadeia | O nome do contêiner de recursos do Azure Cosmos DB. | Yes | |
| database_name | cadeia | O nome do banco de dados MongoDB vCore a ser usado com o Azure Cosmos DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice do MongoDB vCore a ser usado com o Azure Cosmos DB. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | No |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser utilizado como um caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo de índice a ser utilizado como título. | No | |
| url_field | cadeia | O nome do campo de índice a ser utilizado como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Yes |
elasticsearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Yes |
elasticsearchChatExtensionParameters
Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | No | False |
| autenticação | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | No | ||
| ponto de extremidade | cadeia | O ponto de extremidade do Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. | No | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice do Elasticsearch®. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| query_type | elasticsearchQueryType | O tipo de consulta de recuperação do Elasticsearch® que deve ser executado ao usá-lo como uma extensão de chat do OpenAI do Azure. | No | |
| strictness | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | No |
elasticsearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser utilizado como um caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo de índice a ser utilizado como título. | No | |
| url_field | cadeia | O nome do campo de índice a ser utilizado como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | No |
elasticsearchQueryType
O tipo de consulta de recuperação do Elasticsearch® que deve ser executado ao usá-lo como uma extensão de chat do OpenAI do Azure.
| Property | Value |
|---|---|
| Description | O tipo de consulta de recuperação do Elasticsearch® que deve ser executado ao usá-lo como uma extensão de chat do OpenAI do Azure. |
| Type | cadeia |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parâmetros a serem usados ao configurar o OpenAI do Azure nas extensões de chat Your Data ao usar o Mongo DB | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Yes |
mongoDBChatExtensionParameters
Parâmetros a serem usados ao configurar o OpenAI do Azure nas extensões de chat Your Data ao usar o Mongo DB
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | No | False |
| app_name | cadeia | O nome do aplicativo do Mongo DB. | Yes | |
| autenticação | onYourDataUsernameAndPasswordAuthenticationOptions | As opções de autenticação da OpenAI do Azure On Your Data ao usar uma cadeia um número de usuário e uma senha. | Yes | |
| collection_name | cadeia | O nome da Coleção do Mongo DB. | Yes | |
| database_name | cadeia | O nome do banco de dados do Mongo DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| ponto de extremidade | cadeia | O nome do ponto de extremidade do cluster do Mongo DB. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Mongo DB. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice do Mongo DB. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | No |
mongoDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Mongo DB.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser utilizado como um caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo de índice a ser utilizado como título. | No | |
| url_field | cadeia | O nome do campo de índice a ser utilizado como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Yes |
pineconeChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Pinecone ao usá-lo como uma extensão de chat do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parâmetros para configurar extensões de chat do Pinecone no OpenAI do Azure. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Yes |
pineconeChatExtensionParameters
Parâmetros para configurar extensões de chat do Pinecone no OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | No | False |
| autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure nos Seus Dados ao aplicar a busca em vetores, que se baseia em um nome de implantação de modelo de inserção interna no mesmo recurso do OpenAI do Azure. | Yes | |
| ambiente | cadeia | O nome do ambiente Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Pinecone. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia | O nome do índice do banco de dados Pinecone. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | No | |
| top_n_documents | inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | No |
pineconeFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Pinecone.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo de índice a ser utilizado como um caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo de índice a ser utilizado como título. | No | |
| url_field | cadeia | O nome do campo de índice a ser utilizado como URL. | No |
onYourDataAuthenticationOptions
As opções de autenticação do OpenAI do Azure On Your Data.
Discriminador para onYourDataAuthenticationOptions
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes |
onYourDataContextProperty
A propriedade de contexto.
| Property | Value |
|---|---|
| Description | A propriedade de contexto. |
| Type | cadeia |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.
| Property | Value |
|---|---|
| Description | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. |
| Type | cadeia |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave de API a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| connection_string | cadeia | A cadeia de conexão a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
As opções de autenticação para o OpenAI do Azure On Your Data ao usar um par de chave e de Identificação da chave do Elasticsearch.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave Elasticsearch a ser usada para autenticação. | No | |
| key_id | cadeia | O ID da chave do Elasticsearch a ser usado para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave de API codificada pelo Elasticsearch.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | cadeia | A chave de API codificada do Elasticsearch a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes |
onYourDataAccessTokenAuthenticationOptions
As opções de autenticação para o OpenAI do Azure Em Seus Dados ao usar o token de acesso.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| access_token | cadeia | O token de acesso a ser utilizado para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo sistema.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | cadeia | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
As opções de autenticação da OpenAI do Azure On Your Data ao usar uma cadeia um número de usuário e uma senha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| senha | cadeia | A senha. a ser usado para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Yes | |
| nome de usuário | cadeia | O nome de usuário a ser usado para autenticação. | No |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para o OpenAI do Azure On Your Data com busca em vetores.
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. | Yes |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores.
| Property | Value |
|---|---|
| Description | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
| Type | cadeia |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em uma chamada pública de ponto de extremidade do OpenAI do Azure para inserções.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | inteiro | O número de dimensões que as inserções devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
No | |
| ponto de extremidade | cadeia | Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas. O número deve estar no formato https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta api-version não é permitido. |
No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. | Yes |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em um nome de implantação de modelo de inserções interno no mesmo recurso do OpenAI do Azure.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | cadeia | Especifica o nome da implantação de modelo a ser usada para vetorização. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas. | No | |
| dimensions | inteiro | O número de dimensões que as inserções devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. | Yes |
onYourDataIntegratedVectorizationSource
Representa o vetorizador integrado definido dentro do recurso de pesquisa.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. | Yes |
onYourDataModelIdVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em uma ID do modelo de serviço de pesquisa. Atualmente, só há suporte para Elasticsearch®.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| model_id | cadeia | Especifica o ID do modelo a ser usado para vetorização. Essa ID do modelo deve ser definida no serviço de pesquisa. | No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. | Yes |
azureChatExtensionsMessageContext
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | matriz | Todos os documentos recuperados. | No | |
| citations | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | No | |
| intenção | cadeia | A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. | No |
citation
informações de citação para uma mensagem de resposta de preenchimento de chat.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | cadeia | A ID da parte da citação. | No | |
| conteúdo | cadeia | O conteúdo da citação. | Yes | |
| filepath | cadeia | O caminho do arquivo da citação. | No | |
| rerank_score | number | A pontuação de reclassificação do documento recuperado. | No | |
| title | cadeia | O título da citação. | No | |
| url | cadeia | A URL da citação. | No |
retrievedDocument
O documento recuperado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | cadeia | A ID da parte da citação. | No | |
| conteúdo | cadeia | O conteúdo da citação. | Yes | |
| data_source_index | inteiro | O índice da fonte de dados. | No | |
| filepath | cadeia | O caminho do arquivo da citação. | No | |
| filter_reason | filterReason | O motivo da filtragem do documento recuperado. | No | |
| original_search_score | number | A pontuação de pesquisa original do documento recuperado. | No | |
| rerank_score | number | A pontuação de reclassificação do documento recuperado. | No | |
| search_queries | matriz | As consultas de pesquisa usadas para recuperar o documento. | No | |
| title | cadeia | O título da citação. | No | |
| url | cadeia | A URL da citação. | No |
filterReason
O motivo da filtragem do documento recuperado.
| Property | Value |
|---|---|
| Description | O motivo da filtragem do documento recuperado. |
| Type | cadeia |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A função chamada pelo modelo. | Yes | |
| └─ Argumentos | cadeia | Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. | No | |
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| id | cadeia | A ID da chamada da ferramenta. | Yes | |
| tipo | toolCallType | O tipo da chamada de ferramenta, nesse caso, function. |
Yes |
toolCallType
O tipo da chamada de ferramenta, nesse caso, function.
| Property | Value |
|---|---|
| Description | O tipo da chamada de ferramenta, nesse caso, function. |
| Type | cadeia |
| Values | function |
chatCompletionRequestMessageTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem. | No | |
| tool_call_id | cadeia | Chamada de ferramenta à qual esta mensagem está respondendo. | No |
chatCompletionRequestMessageFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem. | No | |
| name | cadeia | O conteúdo da mensagem. | No | |
| função | enumeração | A função do autor das mensagens, nesse caso, function.Valores possíveis: function |
No |
createChatCompletionResponse
Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Yes | |
| created | inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. | Yes | |
| id | cadeia | Identificador exclusivo para conclusão de chat. | Yes | |
| modelo | cadeia | O modelo usado para a conclusão do chat. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.Valores possíveis: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. | No | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
No | |
| uso | completionUsage | Estatísticas de uso para a solicitação de preenchimento. | No |
createChatCompletionStreamResponse
Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Yes | |
| created | inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Cada parte tem o mesmo carimbo de data/hora. | Yes | |
| id | cadeia | Identificador exclusivo para conclusão de chat. Cada parte tem a mesma ID. | Yes | |
| modelo | cadeia | O modelo para gerar a conclusão. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk.Valores possíveis: chat.completion.chunk |
Yes | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
No |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem de parte. | No | |
| function_call | objeto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| └─ Argumentos | cadeia | Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. | No | |
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | No | |
| função | enumeração | A função do autor dessa mensagem. Valores possíveis: system, , user, assistanttool |
No | |
| tool_calls | matriz | No |
chatCompletionMessageToolCallChunk
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | No | ||
| └─ Argumentos | cadeia | Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. | No | |
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| id | cadeia | A ID da chamada da ferramenta. | No | |
| indexar | inteiro | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function.Valores possíveis: function |
No |
chatCompletionStreamOptions
Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE]. O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia. Todas as outras partes também incluirão um campo usage, mas com um valor nulo. |
No |
chatCompletionChoiceLogProbs
Informações de probabilidade de log para a escolha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. | Yes | |
| refusal | matriz | Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. | No |
chatCompletionTokenLogprob
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bytes | matriz | Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser null se não houver representação de bytes para o token. |
Yes | |
| logprob | number | A probabilidade de log desse token. | Yes | |
| símbolo | cadeia | O token. | Yes | |
| top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de top_logprobs retornados solicitados. |
Yes |
chatCompletionResponseMessage
Uma mensagem de conclusão de chat gerada pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Se a modalidade de saída de áudio for solicitada, esse objeto conterá dados sobre a resposta de áudio do modelo. | No | |
| └─ dados | cadeia | Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação. |
No | |
| └─ data_de_expiração | inteiro | O carimbo de data/hora Unix (em segundos) para quando essa resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos. |
No | |
| └─ id | cadeia | Identificador único para essa resposta de áudio. | No | |
| └─ transcrição | cadeia | Transcrição do áudio gerado pelo modelo. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente. | No | |
| function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| função | chatCompletionResponseMessageRole | A função do autor da mensagem de resposta. | Yes | |
| tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
chatCompletionResponseMessageRole
A função do autor da mensagem de resposta.
| Property | Value |
|---|---|
| Description | A função do autor da mensagem de resposta. |
| Type | cadeia |
| Values | assistant |
chatCompletionToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando não há nenhuma ferramenta presente.
auto é o padrão se ferramentas estiverem presente.
Esse componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | Yes | ||
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function.Valores possíveis: function |
Yes |
ParallelToolCalls
Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.
Nenhuma propriedade definida para esse componente.
PredictionContent
Conteúdo estático de saída prevista, como o conteúdo de um arquivo de texto que está sendo regenerado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo poderá ser retornada muito mais rápido. | Yes | |
| tipo | enumeração | O tipo de conteúdo previsto que você deseja fornecer. No momento, esse tipo é sempre content.Valores possíveis: content |
Yes |
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para esse componente.
ChatCompletionModalities
Tipos de saída que você deseja que o modelo gere para esta solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para esse componente.
chatCompletionFunctionCall
Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Os argumentos com os quais chamar a função, conforme gerados pelo modelo no formato JSON. O modelo nem sempre gera JSON válido, e pode alucinar parâmetros não definidos pelo esquema de função. Valide os argumentos no código antes de chamar a sua função. | Yes | |
| name | cadeia | O nome da função a ser chamada. | Yes |
completionUsage
Estatísticas de uso para a solicitação de preenchimento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens na conclusão gerada. | Yes | |
| completion_tokens_details | objeto | Divisão de tokens usados em uma conclusão. | No | |
| └─ tokens_de_predição_aceitos | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. | No | |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio gerados pelo modelo. | No | |
| └─ tokens_de_raciocínio | inteiro | Tokens gerados pelo modelo para raciocínio. | No | |
| └─ rejected_prediction_tokens | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, assim como os tokens de raciocínio, esses tokens ainda são contabilizados no total de tokens de conclusão para fins de cobrança, saída e limites da janela de contexto. | No | |
| prompt_tokens | inteiro | Número de tokens no prompt. | Yes | |
| prompt_tokens_details | objeto | Detalhes dos tokens de prompt. | No | |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio presentes na solicitação. | No | |
| └─ tokens em cache | inteiro | O número de tokens de prompt armazenados em cache. | No | |
| total_tokens | inteiro | Número total de tokens utilizados na solicitação (prompt + conclusão). | Yes |
chatCompletionTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | FunctionObject | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function.Valores possíveis: function |
Yes |
FunctionParameters
Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para esse componente.
FunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No | |
| strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no campo parameters. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
ResponseFormatText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: textValores possíveis: text |
Yes |
ResponseFormatJsonObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_objectValores possíveis: json_object |
Yes |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para esse componente.
ResponseFormatJsonSchema
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| json_schema | objeto | Yes | ||
| └─ descrição | cadeia | Uma descrição de para que serve o formato de resposta, usada pelo modelo para determinar a forma de responder no formato. | No | |
| └─ nome | cadeia | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | No | |
| └─ esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. | No | |
| └─ rigoroso | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schemaValores possíveis: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | cadeia | No | ||
| indexar | inteiro | No |
createTranslationRequest
Solicitação de tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio a ser traduzido. | Yes | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
audioResponse
Resposta de tradução ou transcrição quando response_format foi json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | Texto traduzido ou transcrito. | Yes |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| linguagem | cadeia | Language. | No | |
| segments | matriz | No | ||
| tarefa | cadeia | Tipo de tarefa de áudio. | No | |
| enviar SMS | cadeia | Texto traduzido ou transcrito. | Yes | |
| words | matriz | No |
audioResponseFormat
Define o formato da saída.
| Property | Value |
|---|---|
| Description | Define o formato da saída. |
| Type | cadeia |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Solicitação de transcrição.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O objeto do arquivo de áudio a transcrever. | Yes | |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. | No | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição.
response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment. Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. |
No | ['segment'] |
audioSegment
Segmento da transcrição ou tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilidade de log média. | No | |
| compression_ratio | number | Taxa de compactação. | No | |
| end | number | Deslocamento final do segmento. | No | |
| id | inteiro | Identificador de segmento. | No | |
| no_speech_prob | number | Probabilidade de “sem fala”. | No | |
| seek | number | Deslocamento do segmento. | No | |
| start | number | O deslocamento de início do segmento. | No | |
| temperature | number | Temperature. | No | |
| enviar SMS | cadeia | Texto do segmento. | No | |
| tokens | matriz | Tokens do texto. | No |
audioWord
Palavra de transcrição ou tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end | number | Deslocamento de término da palavra. | No | |
| start | number | O deslocamento de início da palavra. | No | |
| palavra | cadeia | Word | No |
createSpeechRequest
Solicitação de fala.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto para o qual sintetizar áudio. O tamanho máximo é de 4.096 caracteres. | Yes | |
| response_format | enumeração | O formato no qual sintetizar o áudio. Valores possíveis: mp3, , opus, aac, flac, , wavpcm |
No | |
| speed | number | A velocidade do áudio sintetizado. Selecione um valor de 0.25 a 4.0.
1.0 é o padrão. |
No | 1.0 |
| voice | enumeração | A voz a ser usada para sintetização de voz. Valores possíveis: alloy, , echo, fable, onyx, , novashimmer |
Yes |
imageQuality
A qualidade da imagem que será gerada.
| Property | Value |
|---|---|
| Description | A qualidade da imagem que será gerada. |
| Type | cadeia |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
O formato no qual as imagens geradas são retornadas.
| Property | Value |
|---|---|
| Description | O formato no qual as imagens geradas são retornadas. |
| Type | cadeia |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos de série.
| Property | Value |
|---|---|
| Description | O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. |
| Type | cadeia |
| Default | png |
| Values | pngjpeg |
imageSize
O tamanho das imagens geradas.
| Property | Value |
|---|---|
| Description | O tamanho das imagens geradas. |
| Type | cadeia |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
O estilo das imagens geradas. Só há suporte para dall-e-3.
| Property | Value |
|---|---|
| Description | O estilo das imagens geradas. Só há suporte para dall-e-3. |
| Type | cadeia |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1.
| Property | Value |
|---|---|
| Description | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. |
| Type | cadeia |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | imageBackground | Permite definir a transparência para a tela de fundo das imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1. | No | auto |
| n | inteiro | O número de imagens a serem geradas. Para o dall-e-3, há suporte apenas para n=1. | No | 1 |
| output_compression | inteiro | O nível de compactação (0-100%) para as imagens geradas. Esse parâmetro só tem suporte para modelos da série gpt-image-1 com o formato de saída jpeg. | No | 100 |
| output_format | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Só há suporte para modelos da série gpt-image-1. | No | png |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1 e 4.000 caracteres para dall-e-3 | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. Só há suporte para dall-e-3. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| estilo | imageStyle | O estilo das imagens geradas. Só há suporte para dall-e-3. | No | vivid |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | No |
imageEditsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | cadeia de caracteres ou matriz | As imagens a serem editadas. Deve ser um arquivo de imagem com suporte ou uma matriz de imagens. Cada imagem deve ser um png ou um arquivo jpg inferior a 25 MB. | Yes | |
| máscara | cadeia | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, menor que 4 MB e ter as mesmas dimensões que a imagem. | No | |
| n | inteiro | O número de imagens a serem geradas. | No | 1 |
| solicitação | cadeia | Uma descrição de texto das imagens desejadas. O comprimento máximo é de 32.000 caracteres. | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | No |
generateImagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created | inteiro | O carimbo de data/hora UNIX quando a operação foi criada. | Yes | |
| dados | matriz | Os dados do resultado da operação, se bem-sucedida | Yes | |
| uso | imageGenerationsUsage | Representa os detalhes de uso do token para solicitações de geração de imagem. Somente para modelos da série gpt-image-1. | No |
imageResult
A URL da imagem ou a imagem codificada, se foi bem-sucedida, e um erro se não foi.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| b64_json | cadeia | A imagem codificada em base64 | No | |
| content_filter_results | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | No | |
| prompt_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. | No | |
| revised_prompt | cadeia | A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. | No | |
| url | cadeia | A URL da imagem. | No |
imageGenerationsUsage
Representa os detalhes de uso do token para solicitações de geração de imagem. Somente para modelos da série gpt-image-1.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | inteiro | O número de tokens de entrada. | No | |
| input_tokens_details | objeto | Um detalhamento detalhado dos tokens de entrada. | No | |
| └─ image_tokens | inteiro | O número de tokens de imagem. | No | |
| └─ text_tokens | inteiro | O número de tokens de texto. | No | |
| output_tokens | inteiro | O número de tokens de saída. | No | |
| total_tokens | inteiro | O número total de tokens usados. | No |
linha
Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| spans | matriz | Uma matriz de spans que representam objetos detectados e suas informações de caixa delimitadora. | Yes | |
| enviar SMS | cadeia | Yes |
span
Um objeto span que representa um objeto detectado e suas informações de caixa delimitadora.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| length | inteiro | O comprimento do span em caracteres, medido em pontos de código Unicode. | Yes | |
| deslocamento | inteiro | spanO deslocamento de caractere dentro do texto em que o intervalo começa. Esse deslocamento é definido como a posição do primeiro caractere do span, contando desde o início do texto como pontos de código Unicode. | Yes | |
| polígono | matriz | Uma matriz de objetos representando pontos no polígono que inclui o objeto detectado. | Yes | |
| enviar SMS | cadeia | O conteúdo do texto do span que representa o objeto detectado. | Yes |
runCompletionUsage
Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou seja in_progress, queued etc.).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens de conclusão usados ao longo da execução. | Yes | |
| prompt_tokens | inteiro | Número de tokens de solicitação usados ao longo da execução. | Yes | |
| total_tokens | inteiro | Número total de tokens usados (solicitação + conclusão). | Yes |
runStepCompletionUsage
Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens de conclusão usados ao longo da etapa de execução. | Yes | |
| prompt_tokens | inteiro | Número de tokens de solicitação usados ao longo da etapa de execução. | Yes | |
| total_tokens | inteiro | Número total de tokens usados (solicitação + conclusão). | Yes |
assistantsApiResponseFormatOption
Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.
A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.
Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Esse componente pode ser um dos seguintes:
assistantsApiResponseFormat
Um objeto que descreve a saída esperada do modelo. Se for json_object, somente function do tipo tools terão permissão para ser passadas para a Execução. Se for text, o modelo poderá retornar texto ou qualquer valor necessário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | Deve ser um de text ou json_object. |
No | enviar SMS |
Enumeração de tipo: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| enviar SMS | |
| json_object |
assistantObject
Representa um assistant que pode chamar o modelo e usar ferramentas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora do Unix (em segundos), para quando o assistente foi criado. | Yes | |
| description | cadeia | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres. |
Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| modelo | cadeia | ID do modelo a ser usado. | Yes | |
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, file_search ou function. |
Yes | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
Enumeração de objeto: AssistantObjectType
| Value | Description |
|---|---|
| assistente | O tipo de objeto, que é sempre assistente |
createAssistantRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | Yes | ||
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a este assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| └─ armazenamentos_de_vetores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, retrieval ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
modifyAssistantRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O tamanho máximo é de 32.768 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | No | ||
| name | cadeia | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Substitui a lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | Substitui o repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter, retrieval ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
deleteAssistantResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
Enumeração de objeto: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
assistantToolsCode
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | O tipo de ferramenta que está sendo definida: code_interpreter |
Yes |
Enumeração de tipo: assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Substitui a ferramenta de pesquisa de arquivos. | No | |
| └─ max_num_results (número máximo de resultados) | inteiro | O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Esse número deve estar entre 1 e 50 inclusivo. Observe que a ferramenta de pesquisa de arquivos pode gerar menos de max_num_results resultados. |
No | |
| tipo | cadeia | O tipo de ferramenta que está sendo definida: file_search |
Yes |
Enumeração de tipo: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | O tipo de ferramenta que está sendo definida: file_search |
Yes |
Enumeração de tipo: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição de função. | Yes | |
| └─ descrição | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| └─ nome | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | No | |
| └─ parâmetros | chatCompletionFunctionParameters | Os parâmetros aceitos pelas funções, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. | No | |
| tipo | cadeia | O tipo de ferramenta que está sendo definida: function |
Yes |
Enumeração de tipo: assistantToolsFunction
| Value | Description |
|---|---|
| função |
truncationObject
Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| last_messages | inteiro | O número de mensagens mais recentes do thread ao construir o contexto para a execução. | No | |
| tipo | cadeia | A estratégia de truncamento a ser usada para o thread. O padrão é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto, as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo, max_prompt_tokens. |
Yes |
Enumeração de tipo: TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função.
Esse componente pode ser um dos seguintes:
assistantsNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | No | ||
| └─ nome | cadeia | O nome da função a ser chamada. | No | |
| tipo | cadeia | O tipo da ferramenta. Se o tipo for function, o nome da função deverá ser definido |
Yes |
Enumeração de tipo: AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| função | |
| code_interpreter | |
| file_search |
runObject
Representa uma execução executada em threads.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente usada para a execução dessa execução. | Yes | |
| cancelled_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando a execução foi cancelada. | Yes | |
| completed_at | inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída. | Yes | |
| created_at | inteiro | O carimbo de data/hora do Unix (em segundos), para quando a execução foi criada. | Yes | |
| expires_at | inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução expirará. | Yes | |
| failed_at | inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução falhou. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| incomplete_details | objeto | Detalhes sobre por que a execução está incompleta. Será null se a execução não estiver incompleta. |
Yes | |
| └─ motivo | cadeia | O motivo pelo qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. | No | |
| instructions | cadeia | As instruções que o assistente usou para esta execução. | Yes | |
| last_error | objeto | O último erro associado a esta execução. Será null se não houver erros. |
Yes | |
| └─ código | cadeia | Uma opção entre server_error ou rate_limit_exceeded. |
No | |
| Mensagem └─ | cadeia | Uma descrição do erro legível para humanos. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão especificados que foram usados ao longo da execução. |
Yes | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt especificados que foram usados ao longo da execução. |
Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| modelo | cadeia | O modelo que o assistente usou para esta execução. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| required_action | objeto | Detalhes sobre a ação necessária para continuar a execução. Será null se nenhuma ação for necessária. |
Yes | |
| └─ submit_tool_outputs | objeto | Detalhes sobre as saídas da ferramenta necessárias para que essa execução continue. | No | |
| └─ tool_calls | matriz | Uma lista das chamadas de ferramenta relevantes. | No | |
| └─ tipo | enumeração | Por enquanto, isso é sempre submit_tool_outputs.Valores possíveis: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Yes | |
| started_at | inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada. | Yes | |
| status | cadeia | O status da execução, que pode ser queued, in_progress, requires_action, cancelling, cancelled, failed, completed ou expired. |
Yes | |
| temperature | number | A temperatura de amostragem usada para esta execução. Se não estiver definida, o padrão será 1. | No | |
| thread_id | cadeia | A ID do thread que foi executada como parte dessa execução. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
Yes | |
| tools | matriz | A lista de ferramentas que o assistente usou para essa execução. | Yes | [] |
| top_p | number | O valor de amostragem do núcleo usado para esta execução. Se não estiver definida, o padrão será 1. | No | |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Yes | |
| uso | runCompletionUsage | Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou seja in_progress, queued etc.). |
Yes |
Enumeração de objeto: runObjectType
| Value | Description |
|---|---|
| thread.run | O tipo de objeto da execução, que é sempre thread.run |
Enumeração de status: RunObjectStatus
| Value | Description |
|---|---|
| na fila | O estado na fila |
| in_progress | O estado in_progress |
| requires_action | O estado required_action |
| cancelling | O estado de cancelamento |
| cancelled | O estado cancelado |
| failed | O estado com falha |
| completed | O estado concluído |
| expired | O estado expirado |
createRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | cadeia | Acrescenta instruções adicionais ao final das instruções para a execução. Isto é útil para modificar o comportamento por execução sem substituir outras instruções. | No | |
| additional_messages | matriz | Acrescenta mensagens adicionais ao thread antes de criar a execução. | No | |
| assistant_id | cadeia | A ID do assistente a ser usada para executar esta execução. | Yes | |
| instructions | cadeia | Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de conclusão especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | A ID do Modelo a ser usado para realizar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE]. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
listRunsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
modifyRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
submitToolOutputsRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE]. |
No | |
| tool_outputs | matriz | Uma lista de ferramentas para as quais as saídas estão sendo enviadas. | Yes |
runToolCallObject
Objetos de chamada de ferramenta
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição de função. | Yes | |
| └─ Argumentos | cadeia | Os argumentos que o modelo espera que você passe para a função. | No | |
| └─ nome | cadeia | O nome da função. | No | |
| id | cadeia | A ID da chamada da ferramenta. Essa ID deve ser referenciada quando você envia as saídas da ferramenta usando Enviar saídas da ferramenta para executar um ponto de extremidade. | Yes | |
| tipo | cadeia | O tipo da chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function. |
Yes |
Enumeração de tipo: RunToolCallObjectType
| Value | Description |
|---|---|
| função |
createThreadAndRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente a ser usada para executar esta execução. | Yes | |
| instructions | cadeia | Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de conclusão especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificado, ao longo de várias interações da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com modelos GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.A configuração para { "type": "json_object" } habilita o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE]. |
No | |
| stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| conversa | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
threadObject
Representa um thread que contém mensagens.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora do Unix (em segundos), para quando o thread foi criado. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread. |
Yes | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Yes | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
Enumeração de objeto: ThreadObjectType
| Value | Description |
|---|---|
| conversa | O tipo de objeto de thread, que é sempre thread |
createThreadRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| messages | matriz | Uma lista de mensagens para iniciar o thread. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No | |
| └─ armazenamentos_de_vetores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
modifyThreadRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
No | |
| └─ interpretador_de_código | objeto | No | ||
| └─ file_ids (identificadores de arquivo) | matriz | Uma lista de IDs de Arquivo disponibilizadas para a ferramenta code_interpreter. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ busca_de_arquivo | objeto | No | ||
| └─ vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
No |
deleteThreadResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
Enumeração de objeto: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | O estado do objeto de resposta do thread excluído, que é thread.deleted |
listThreadsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
messageObject
Representa uma mensagem dentro de um thread.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | Se aplicável, a ID do assistente que criou esta mensagem. | Yes | |
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às que foram adicionados. | Yes | |
| completed_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando a mensagem foi concluída. | Yes | |
| conteúdo | matriz | O conteúdo da mensagem na matriz de texto e/ou imagens. | Yes | |
| created_at | inteiro | O carimbo de data/hora do Unix (em segundos), para quando a mensagem foi criada. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| incomplete_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando a mensagem foi marcada como incompleta. | Yes | |
| incomplete_details | objeto | Em uma mensagem incompleta, detalha sobre por que a mensagem está incompleta. | Yes | |
| └─ motivo | cadeia | O motivo pelo qual a mensagem está incompleta. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.message. |
Yes | |
| função | cadeia | A entidade que produziu a mensagem. Uma opção entre user ou assistant. |
Yes | |
| run_id | cadeia | Se aplicável, a ID da execução associada à criação dessa mensagem. | Yes | |
| status | cadeia | O status da mensagem, que pode ser in_progress, incomplete ou completed. |
Yes | |
| thread_id | cadeia | A ID de threads à qual essa mensagem pertence. | Yes |
Enumeração de objeto: MessageObjectType
| Value | Description |
|---|---|
| thread.message | O tipo de objeto da mensagem, que é thread.message |
Enumeração de status: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
Enumeração de função: MessageObjectRole
| Value | Description |
|---|---|
| usuário | |
| assistente |
messageDeltaObject
Representa um delta de mensagem, ou seja, todos os campos alterados em uma mensagem durante o streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | objeto | O delta que contém os campos que foram alterados na Mensagem. | Yes | |
| └─ conteúdo | matriz | O conteúdo da mensagem na matriz de texto e/ou imagens. | No | |
| └─ função | cadeia | A entidade que produziu a mensagem. Uma opção entre user ou assistant. |
No | |
| id | cadeia | O identificador da mensagem, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.message.delta. |
Yes |
Enumeração de objeto: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| função | cadeia | A função da entidade que está criando a mensagem. Entre os valores permitidos estão: - user: indica que a mensagem foi enviada por um usuário real e, geralmente, deve ser usada para representar mensagens geradas por usuários.- assistant: indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Yes |
Enumeração de função: CreateMessageRequestRole
| Value | Description |
|---|---|
| usuário | |
| assistente |
modifyMessageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
deleteMessageResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
Enumeração de objeto: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | O estado do objeto de resposta da mensagem excluída |
listMessagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
messageContentImageFileObject
Faz referência a um Arquivo de imagem no conteúdo de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_file | objeto | Yes | ||
| └─ identificador_de_arquivo | cadeia | A ID do Arquivo da imagem no conteúdo da mensagem. | No | |
| tipo | cadeia | Sempre image_file. |
Yes |
Enumeração de tipo: MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | O tipo de arquivo de imagem de conteúdo da mensagem |
messageContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | objeto | Yes | ||
| └─ anotações | matriz | No | ||
| └─ valor | cadeia | Os dados que compõem o texto. | No | |
| tipo | cadeia | Sempre text. |
Yes |
Enumeração de tipo: messageContentTextObjectType
| Value | Description |
|---|---|
| enviar SMS | O tipo de Objeto de texto de conteúdo da mensagem |
messageContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um Arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para pesquisar arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | Yes | ||
| file_citation | objeto | Yes | ||
| └─ identificador_de_arquivo | cadeia | A ID do Arquivo específico do qual vem a citação. | No | |
| start_index | inteiro | Yes | ||
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | Yes | |
| tipo | cadeia | Sempre file_citation. |
Yes |
Enumeração de tipo: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | O tipo de objeto de citação do arquivo |
messageContentTextAnnotationsFilePathObject
Uma URL para o arquivo gerado quando o assistente usou a ferramenta code_interpreter para gerar um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | Yes | ||
| file_path | objeto | Yes | ||
| └─ identificador_de_arquivo | cadeia | A ID do arquivo que foi gerado. | No | |
| start_index | inteiro | Yes | ||
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | Yes | |
| tipo | cadeia | Sempre file_path. |
Yes |
Enumeração de tipo: FilePathObjectType
| Value | Description |
|---|---|
| file_path | O tipo de objeto de caminho do arquivo |
messageDeltaContentImageFileObject
Faz referência a um Arquivo de imagem no conteúdo de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_file | objeto | No | ||
| └─ identificador_de_arquivo | cadeia | A ID do Arquivo da imagem no conteúdo da mensagem. | No | |
| indexar | inteiro | O índice da parte do conteúdo na mensagem. | Yes | |
| tipo | cadeia | Sempre image_file. |
Yes |
Enumeração de tipo: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | inteiro | O índice da parte do conteúdo na mensagem. | Yes | |
| enviar SMS | objeto | No | ||
| └─ anotações | matriz | No | ||
| └─ valor | cadeia | Os dados que compõem o texto. | No | |
| tipo | cadeia | Sempre text. |
Yes |
Enumeração de tipo: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| enviar SMS |
messageDeltaContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um Arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | No | ||
| file_citation | objeto | No | ||
| └─ identificador_de_arquivo | cadeia | A ID do Arquivo específico do qual vem a citação. | No | |
| └─ aspas | cadeia | A citação específica no arquivo. | No | |
| indexar | inteiro | O índice da anotação na parte do conteúdo do texto. | Yes | |
| start_index | inteiro | No | ||
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | No | |
| tipo | cadeia | Sempre file_citation. |
Yes |
Enumeração de tipo: MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Uma URL para o arquivo gerado quando o assistente usou a ferramenta code_interpreter para gerar um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | No | ||
| file_path | objeto | No | ||
| └─ identificador_de_arquivo | cadeia | A ID do arquivo que foi gerado. | No | |
| indexar | inteiro | O índice da anotação na parte do conteúdo do texto. | Yes | |
| start_index | inteiro | No | ||
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | No | |
| tipo | cadeia | Sempre file_path. |
Yes |
Enumeração de tipo: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Representa uma etapa de uma execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente associado à etapa de execução. | Yes | |
| cancelled_at | inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi cancelada. | Yes | |
| completed_at | inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi concluída. | Yes | |
| created_at | inteiro | O carimbo de data/hora do Unix (em segundos), para quando a etapa de execução foi criada. | Yes | |
| expired_at | inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução expirou. Uma etapa será considerada expirada se a execução pai tiver expirado. | Yes | |
| failed_at | inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução falhou. | Yes | |
| id | cadeia | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| last_error | objeto | O último erro associado a esta etapa de execução. Será null se não houver erros. |
Yes | |
| └─ código | cadeia | Uma opção entre server_error ou rate_limit_exceeded. |
No | |
| Mensagem └─ | cadeia | Uma descrição do erro legível para humanos. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre assistant.run.step. |
Yes | |
| run_id | cadeia | A ID da execução da qual essa etapa de execução faz parte. | Yes | |
| status | cadeia | O status da execução, que pode ser in_progress, cancelled, failed, completed ou expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Os detalhes da etapa de execução. | Yes | |
| thread_id | cadeia | A ID dos threads executados. | Yes | |
| tipo | cadeia | O tipo de etapa da execução, que pode ser message_creation ou tool_calls. |
Yes |
Enumeração de objeto: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | O tipo de objeto, que é sempre assistant.run.step |
Enumeração de tipo: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | A etapa de execução message_creation |
| tool_calls | A etapa de execução tool_calls |
Enumeração de status: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | O status de execução in_progress |
| cancelled | O status da execução cancelada |
| failed | O status da execução cancelada |
| completed | O status da execução cancelada |
| expired | O status da execução cancelada |
runStepDeltaObject
Representa um delta da etapa de execução, ou seja, todos os campos alterados em uma etapa de execução durante o streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | objeto | O delta que contém os campos que foram alterados na etapa de execução. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Os detalhes da etapa de execução. | No | |
| id | cadeia | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.run.step.delta. |
Yes |
Enumeração de objeto: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
runStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| message_creation | objeto | Yes | ||
| └─ identificador_da_mensagem | cadeia | A ID da mensagem que foi criada por esta etapa de execução. | No | |
| tipo | cadeia | Sempre message_creation. |
Yes |
Enumeração de tipo: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| message_creation | objeto | No | ||
| └─ identificador_da_mensagem | cadeia | A ID da mensagem que foi criada por esta etapa de execução. | No | |
| tipo | cadeia | Sempre message_creation. |
Yes |
Enumeração de tipo: RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Detalhes da chamada de ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | matriz | Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreter, retrieval ou function. |
Yes | |
| tipo | cadeia | Sempre tool_calls. |
Yes |
Enumeração de tipo: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Detalhes da chamada de ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | matriz | Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreter, file_search ou function. |
No | |
| tipo | cadeia | Sempre tool_calls. |
Yes |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Intérprete de Código na qual a etapa de execução estava envolvida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | objeto | A definição da chamada da ferramenta Intérprete de Código. | Yes | |
| └─ entrada | cadeia | A entrada para a chamada da ferramenta Intérprete de Código. | No | |
| └─ saídas | matriz | As saídas da chamada da ferramenta Intérprete de Código. O Intérprete de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. |
No | |
| id | cadeia | A ID da chamada da ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Yes |
Enumeração de tipo: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Intérprete de Código na qual a etapa de execução estava envolvida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | objeto | A definição da chamada da ferramenta Intérprete de Código. | No | |
| └─ entrada | cadeia | A entrada para a chamada da ferramenta Intérprete de Código. | No | |
| └─ saídas | matriz | As saídas da chamada da ferramenta Intérprete de Código. O Intérprete de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. |
No | |
| id | cadeia | A ID da chamada da ferramenta. | No | |
| indexar | inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Yes |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Intérprete de Código como parte de uma etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| logs | cadeia | A saída de texto da chamada da ferramenta Intérprete de Código. | Yes | |
| tipo | cadeia | Sempre logs. |
Yes |
Enumeração de tipo: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Intérprete de Código como parte de uma etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | inteiro | O índice da saída na matriz de saídas. | Yes | |
| logs | cadeia | A saída de texto da chamada da ferramenta Intérprete de Código. | No | |
| tipo | cadeia | Sempre logs. |
Yes |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | objeto | Yes | ||
| └─ identificador_de_arquivo | cadeia | A ID do Arquivo da imagem. | No | |
| tipo | cadeia | Sempre image. |
Yes |
Enumeração de tipo: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| imagem |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | objeto | No | ||
| └─ identificador_de_arquivo | cadeia | A ID do arquivo da imagem. | No | |
| indexar | inteiro | O índice da saída na matriz de saídas. | Yes | |
| tipo | cadeia | Sempre image. |
Yes |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| imagem |
runStepDetailsToolCallsFileSearchObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Por enquanto, isso sempre será um objeto vazio. | Yes | |
| └─ resultados | matriz | Os resultados da pesquisa de arquivos. | No | |
| id | cadeia | A ID do objeto da chamada de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Sempre será file_search para esse tipo de chamada de ferramenta. |
Yes |
Enumeração de tipo: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Uma instância de resultados da pesquisa de arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo do resultado que foi encontrado. O conteúdo só é incluído se solicitado por meio do parâmetro de consulta include. | No | |
| file_id | cadeia | A ID do arquivo em que o resultado foi encontrado. | Yes | |
| file_name | cadeia | O nome do arquivo em que o resultado foi encontrado. | Yes | |
| pontuação | number | A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Por enquanto, isso sempre será um objeto vazio. | Yes | |
| id | cadeia | A ID do objeto da chamada de ferramenta. | No | |
| indexar | inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Sempre será retrieval para esse tipo de chamada de ferramenta. |
Yes |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função que foi chamada. | Yes | |
| └─ Argumentos | cadeia | Os argumentos passados para a função. | No | |
| └─ nome | cadeia | O nome da função. | No | |
| └─ saída | cadeia | A saída da função. Será null se as saídas ainda não tiverem sido enviadas. |
No | |
| id | cadeia | A ID do objeto da chamada de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Sempre será function para esse tipo de chamada de ferramenta. |
Yes |
Enumeração de tipo: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| função |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função que foi chamada. | No | |
| └─ Argumentos | cadeia | Os argumentos passados para a função. | No | |
| └─ nome | cadeia | O nome da função. | No | |
| └─ saída | cadeia | A saída da função. Será null se as saídas ainda não tiverem sido enviadas. |
No | |
| id | cadeia | A ID do objeto da chamada de ferramenta. | No | |
| indexar | inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Sempre será function para esse tipo de chamada de ferramenta. |
Yes |
Enumeração de tipo: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| função |
vectorStoreExpirationAfter
A política de expiração de um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| âncora | cadeia | Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at. |
Yes | |
| days | inteiro | O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. | Yes |
Enumeração de âncora: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | O carimbo de data/hora da âncora após o qual a política de expiração se aplica. |
vectorStoreObject
Um repositório de vetores é uma coleção de arquivos processados que pode ser usado pela ferramenta file_search.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. | Yes | |
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| expires_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores expirará. | No | |
| file_counts | objeto | Yes | ||
| └─ cancelado | inteiro | O número de arquivos que foram cancelados. | No | |
| └─ concluído | inteiro | O número de arquivos que foram processados com sucesso. | No | |
| └─ falha | inteiro | O número de arquivos que falharam ao processar. | No | |
| └─ em andamento | inteiro | O número de arquivos que estão sendo processados no momento. | No | |
| └─ total | inteiro | O número total de arquivos. | No | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| last_active_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores esteve ativo pela última vez. | Yes | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| name | cadeia | O nome do repositório de vetores. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.Valores possíveis: vector_store |
Yes | |
| status | cadeia | O status do repositório de vetores, que pode ser expired, in_progress ou completed. Um status de completed indica que o repositório de vetores está pronto para uso. |
Yes | |
| usage_bytes | inteiro | O número total de bytes usados pelos arquivos no repositório de vetores. | Yes |
Enumeração de status: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. Somente aplicável se file_ids não estiver vazio. |
No | |
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
updateVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | No | |
| metadados | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Este poderá ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do repositório de vetores. | No |
listVectorStoresResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
deleteVectorStoreResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
Enumeração de objeto: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | O estado do objeto de resposta do repositório de vetores excluído |
vectorStoreFileObject
Uma lista de arquivos anexados a um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. Somente aplicável se file_ids não estiver vazio. |
No | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| last_error | objeto | O último erro associado a esse arquivo do repositório de vetores. Será null se não houver erros. |
Yes | |
| └─ código | cadeia | Um dos server_error ou invalid_file ou unsupported_file. |
No | |
| Mensagem └─ | cadeia | Uma descrição do erro legível para humanos. | No | |
| objeto | cadeia | O tipo de objeto, que é sempre vector_store.file. |
Yes | |
| status | cadeia | O status do arquivo do repositório de vetores, que pode ser in_progress, completed, cancelled ou failed. O status completed indica que o arquivo do repositório de vetores está pronto para uso. |
Yes | |
| usage_bytes | inteiro | O uso total do repositório de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. | Yes | |
| vector_store_id | cadeia | A ID do repositório de vetores ao qual o arquivo está anexado. | Yes |
Enumeração de objeto: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
Enumeração de status: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Isso é retornado quando a estratégia de divisão em partes é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do conceito de chunking_strategy ser introduzido na API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | Sempre other. |
Yes |
tipo Enum: OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | staticChunkingStrategy | Yes | ||
| tipo | cadeia | Sempre static. |
Yes |
tipo Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| estático |
staticChunkingStrategy
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | inteiro | O número de tokens que se sobrepõem entre as partes. O valor padrão é 400.Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | inteiro | O número máximo de tokens em cada parte. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. |
Yes |
autoChunkingStrategyRequestParam
A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | staticChunkingStrategy | Yes | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Yes |
chunkingStrategyRequestParam
A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto.
Esse componente pode ser um dos seguintes:
createVectorStoreFileRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. |
No | |
| file_id | cadeia | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
Yes |
listVectorStoreFilesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
deleteVectorStoreFileResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
Enumeração de objeto: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Um lote de arquivos anexados a um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) de quando o lote de arquivos do repositório de vetores foi criado. | Yes | |
| file_counts | objeto | Yes | ||
| └─ cancelado | inteiro | O número de arquivos que foram cancelados. | No | |
| └─ concluído | inteiro | O número de arquivos que foram processados. | No | |
| └─ falha | inteiro | O número de arquivos que falharam ao processar. | No | |
| └─ em andamento | inteiro | O número de arquivos que estão sendo processados no momento. | No | |
| └─ total | inteiro | O número total de arquivos. | No | |
| id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre vector_store.file_batch. |
Yes | |
| status | cadeia | O status do lote de arquivos do repositório de vetores, que pode ser in_progress, completed, cancelled ou failed. |
Yes | |
| vector_store_id | cadeia | A ID do repositório de vetores ao qual o Arquivo está anexado. | Yes |
Enumeração de objeto: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
Enumeração de status: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto. |
No | |
| file_ids | matriz | Uma lista de IDs de Arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search, que podem acessar arquivos. |
Yes |
assistantStreamEvent
Representa um evento emitido ao transmitir uma execução.
Cada evento em um fluxo de eventos enviados pelo servidor tem uma propriedade event e data:
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitimos eventos sempre que um novo objeto é criado, faz a transição para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída e assim por diante. Quando um Assistente opta por criar uma mensagem durante uma execução, emitimos um thread.message.created event, um evento thread.message.in_progress, muitos eventos thread.message.delta e, por fim, um evento thread.message.completed.
Podemos acrescentar eventos adicionais ao longo do tempo, portanto, recomendamos tratar eventos desconhecidos normalmente em seu código.
Esse componente pode ser um dos seguintes:
threadStreamEvent
Esse componente pode ser um dos seguintes:
thread.created
Ocorre quando um novo thread é criado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | threadObject | Representa um thread que contém mensagens. | Yes | |
| evento | cadeia | Yes |
Dados: threadObject
Enumeração de Evento: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | O evento criado pelo thread |
runStreamEvent
Esse componente pode ser um dos seguintes:
thread.run.created
Ocorre quando uma nova execução é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Ocorre quando uma execução é movida para um status queued.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Ocorre quando uma execução é movida para um status in_progress.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Ocorre quando uma execução é movida para um status requires_action.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Ocorre quando uma execução é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Ocorre quando uma execução falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Ocorre quando uma execução é movida para um status cancelling.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Ocorre quando uma execução é cancelada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Ocorre quando uma execução expira.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em threads. | Yes | |
| evento | cadeia | Yes |
Dados: runObject
Enumeração de Evento: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Esse componente pode ser um dos seguintes:
thread.run.step.created
Ocorre quando uma etapa de execução é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa de uma execução. |
Yes | |
| evento | cadeia | Yes |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Ocorre quando uma etapa de execução é movida para um estado in_progress.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa de uma execução. |
Yes | |
| evento | cadeia | Yes |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Ocorre quando partes de uma etapa de execução estão sendo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepDeltaObject | Representa um delta da etapa de execução, ou seja, todos os campos alterados em uma etapa de execução durante o streaming. |
Yes | |
| evento | cadeia | Yes |
Dados: runStepDeltaObject
Enumeração de Evento: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Ocorre quando uma etapa de execução é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa de uma execução. |
Yes | |
| evento | cadeia | Yes |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Ocorre quando uma etapa de execução falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa de uma execução. |
Yes | |
| evento | cadeia | Yes |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Ocorre quando uma etapa de execução é cancelada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa de uma execução. |
Yes | |
| evento | cadeia | Yes |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Ocorre quando uma etapa de execução expira.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa de uma execução. |
Yes | |
| evento | cadeia | Yes |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Esse componente pode ser um dos seguintes:
thread.message.created
Ocorre quando uma mensagem é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia | Yes |
Dados: messageObject
Enumeração de Evento: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Ocorre quando uma mensagem é movida para um estado in_progress.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia | Yes |
Dados: messageObject
Enumeração de Evento: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Ocorre quando partes de uma mensagem estão sendo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageDeltaObject | Representa um delta de mensagem, ou seja, todos os campos alterados em uma mensagem durante o streaming. |
Yes | |
| evento | cadeia | Yes |
Dados: messageDeltaObject
Enumeração de Evento: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Ocorre quando uma mensagem é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia | Yes |
Dados: messageObject
Enumeração de Evento: MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Ocorre quando uma mensagem termina antes de ser concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia | Yes |
Dados: messageObject
Enumeração de Evento: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Esse componente pode ser um dos seguintes:
Click
Uma ação de clique.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| button | enumeração | Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, back ou forward.Valores possíveis: left, , right, wheel, back, forward |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.Valores possíveis: click |
Yes | |
| x | inteiro | A coordenada x em que o clique ocorreu. |
Yes | |
| y | inteiro | A coordenada y em que o clique ocorreu. |
Yes |
CodeInterpreterFileOutput
A saída de uma chamada de ferramenta de intérprete de código que é um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| files | matriz | Yes | ||
| tipo | enumeração | O tipo da saída do arquivo interpretador de código. Sempre files.Valores possíveis: files |
Yes |
CodeInterpreterTextOutput
A saída de uma chamada de ferramenta de intérprete de código que é um texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| logs | cadeia | Os logs da chamada da ferramenta de intérprete de código. |
Yes | |
| tipo | enumeração | O tipo da saída de texto do interpretador de código. Sempre logs.Valores possíveis: logs |
Yes |
CodeInterpreterTool
Uma ferramenta que executa o código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_ids | matriz | As IDs dos arquivos em que executar o código. |
Yes | |
| tipo | enumeração | O tipo da ferramenta de interpretador de código. Sempre code_interpreter.Valores possíveis: code_interpreter |
Yes |
CodeInterpreterToolCall
Uma chamada de ferramenta para executar o código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código a ser executado. |
Yes | |
| id | cadeia | A ID exclusiva da chamada da ferramenta de intérprete de código. |
Yes | |
| results | matriz | Os resultados da chamada da ferramenta de intérprete de código. |
Yes | |
| status | enumeração | O status da chamada da ferramenta de intérprete de código. Valores possíveis: in_progress, , interpretingcompleted |
Yes | |
| tipo | enumeração | O tipo da chamada da ferramenta de intérprete de código. Sempre code_interpreter_call.Valores possíveis: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Esse componente pode ser um dos seguintes:
ComparisonFilter
Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave a ser comparada com o valor. | Yes | |
| tipo | enumeração | Especifica o operador de comparação: eq, , ne, gt, gte, lt, lte.- eq: igual- ne: não é igual a- gt: maior que- gte: maior ou igual a- lt: menor que- lte: menor ou igual aValores possíveis: eq, , ne, gt, gte, , ltlte |
Yes | |
| value | cadeia de caracteres ou número ou booleano | O valor a ser comparado com a chave de atributo; dá suporte a tipos de cadeia de caracteres, número ou booliano. | Yes |
CompoundFilter
Combinar vários filtros usando and ou or.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | matriz | Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. |
Yes | |
| tipo | enumeração | Tipo de operação: and ou or.Valores possíveis: and, or |
Yes |
ComputerAction
Esse componente pode ser um dos seguintes:
ComputerScreenshotImage
Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | O identificador de um arquivo carregado que contém a captura de tela. | No | |
| image_url | cadeia | A URL da imagem de captura de tela. | No | |
| tipo | enumeração | Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definida como computer_screenshot.Valores possíveis: computer_screenshot |
Yes |
ComputerTool
Uma ferramenta que controla um computador virtual.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | A altura da exibição do computador. |
Yes | |
| display_width | number | A largura da exibição do computador. |
Yes | |
| ambiente | enumeração | O tipo de ambiente de computador a ser controlado. Valores possíveis: mac, , windows, ubuntubrowser |
Yes | |
| tipo | enumeração | O tipo da ferramenta de uso do computador. Sempre computer_use_preview.Valores possíveis: computer-use-preview |
Yes |
ComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | ComputerAction | Yes | ||
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. |
Yes | |
| id | cadeia | O identificador único da chamada do computador. | Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada de computador. |
Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | O tipo da chamada de computador. Sempre computer_call.Valores possíveis: computer_call |
Yes |
ComputerToolCallOutput
A saída de uma chamada de ferramenta de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor. |
No | |
| call_id | cadeia | A ID da chamada da ferramenta de computador que produziu a saída. |
Yes | |
| id | cadeia | A ID da saída da chamada da ferramenta de computador. |
No | |
| saída | ComputerScreenshotImage | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
Yes | |
| status | enumeração | O status da entrada da mensagem. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API que foram confirmadas pelo desenvolvedor. |
No | |
| call_id | cadeia | A ID da chamada da ferramenta de computador que produziu a saída. |
Yes | |
| id | cadeia | A ID exclusiva da saída da ferramenta de chamada do computador. |
Yes | |
| saída | ComputerScreenshotImage | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
Yes | |
| status | enumeração | O status da entrada da mensagem. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Uma verificação de segurança pendente para a chamada de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O tipo da verificação de segurança pendente. | Yes | |
| id | cadeia | A ID da verificação de segurança pendente. | Yes | |
| mensagem | cadeia | Detalhes sobre a verificação de segurança pendente. | Yes |
Content
Conteúdo de entrada e saída multi modal.
Esse componente pode ser um dos seguintes:
Coordinate
Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| x | inteiro | A coordenada x. |
Yes | |
| y | inteiro | A coordenada y. |
Yes |
CreateModelResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | Modelo usado para gerar as respostas. | No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. . |
No |
createResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | {"$ref": "#/components/schemas/includable/description"} | No | |
| entrada | cadeia de caracteres ou matriz | Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta. | Yes | |
| instructions | cadeia | Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio. |
No | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. |
No | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. | No | |
| armazenar | boolean | Se deseja armazenar a resposta do modelo gerado para recuperação posterior por meio da API. |
No | True |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. | No | False |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais: – entradas e saídas de texto – Saídas estruturadas |
No | |
| └─ Formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o resposta para ajustar a janela de contexto soltando itens de entrada no meio da conversa. - disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
DoubleClick
Uma ação de clique duplo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.Valores possíveis: double_click |
Yes | |
| x | inteiro | A coordenada x em que o clique duplo ocorreu. |
Yes | |
| y | inteiro | A coordenada y em que o clique duplo ocorreu. |
Yes |
Drag
Uma ação de arrastar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| caminho | matriz | Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas serão exibidas como uma matriz de objetos, por exemplo,[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag.Valores possíveis: drag |
Yes |
EasyInputMessage
Uma mensagem de entrada para o modelo com uma função que indica a hierarquia de instruções a seguir. As instruções fornecidas com a função developer ou system têm precedência sobre as instruções fornecidas com a função user. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | string ou InputMessageContentList | Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta. Também pode conter respostas anteriores do assistente. |
Yes | |
| função | enumeração | A função da entrada de mensagem. Uma opção entre user, assistant, system ou developer.Valores possíveis: user, , assistant, systemdeveloper |
Yes | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre message.Valores possíveis: message |
No |
FileCitation
Uma citação a um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | A ID do arquivo. |
Yes | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. |
Yes | |
| tipo | enumeração | O tipo da citação de arquivo. Sempre file_citation.Valores possíveis: file_citation |
Yes |
FilePath
Um caminho para um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | A ID do arquivo. |
Yes | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. |
Yes | |
| tipo | enumeração | O tipo do caminho do arquivo. Sempre file_path.Valores possíveis: file_path |
Yes |
FileSearchRanker
O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador.
| Property | Value |
|---|---|
| Description | O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador. |
| Type | cadeia |
| Values | autodefault_2024_08_21 |
FileSearchTool
Uma ferramenta que pesquisa conteúdo relevante de arquivos carregados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50 inclusivo. |
No | |
| ranking_options | objeto | Opções de classificação para pesquisa. | No | |
| └─ ranker | enumeração | O classificador a ser usado para a pesquisa de arquivos. Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ limite_de_pontuação | number | O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. |
No | 0 |
| tipo | enumeração | O tipo da ferramenta de pesquisa de arquivo. Sempre file_search.Valores possíveis: file_search |
Yes | |
| vector_store_ids | matriz | Os IDs dos repositórios de vetores a serem pesquisados. |
Yes |
FileSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa de arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | A ID exclusiva da chamada da ferramenta de pesquisa de arquivos. |
Yes | |
| queries | matriz | As consultas usadas para pesquisar arquivos. |
Yes | |
| results | matriz | Os resultados da chamada da ferramenta de pesquisa de arquivos. |
No | |
| status | enumeração | O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress, searchingincomplete ou failed,Valores possíveis: in_progress, , searching, completed, incomplete, failed |
Yes | |
| tipo | enumeração | O tipo da chamada da ferramenta de pesquisa de arquivo. Sempre file_search_call.Valores possíveis: file_search_call |
Yes |
FunctionTool
Define uma função em seu próprio código que o modelo pode optar por chamar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada. |
No | |
| name | cadeia | O nome da função a ser chamada. |
Yes | |
| parameters | objeto | Um objeto de esquema JSON que descreve os parâmetros da função. |
Yes | |
| strict | boolean | Se deve impor a validação estrita de parâmetro. Padrão true. |
Yes | |
| tipo | enumeração | O tipo da ferramenta de função. Sempre function.Valores possíveis: function |
Yes |
FunctionToolCall
Uma chamada de ferramenta para executar uma função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. |
Yes | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | A ID exclusiva da chamada da ferramenta de função. |
Yes | |
| name | cadeia | O nome da função a ser executada. |
Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da chamada da ferramenta de função. Sempre function_call.Valores possíveis: function_call |
Yes |
FunctionToolCallOutput
A saída de uma chamada de ferramenta de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | A ID exclusiva da saída da chamada da ferramenta de função. Populado quando esse item é retornado por meio da API. |
No | |
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função. |
Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.Valores possíveis: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | A ID exclusiva da saída da ferramenta de chamada de função. |
Yes | |
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de função. |
Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.Valores possíveis: function_call_output |
Yes |
includable
Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
-
file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos. -
message.input_image.image_url: inclua urls de imagem da mensagem de entrada. -
computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador.
| Property | Value |
|---|---|
| Description | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são: - file_search_call.results: inclua os resultados da pesquisa da ferramenta de busca de arquivos.- message.input_image.image_url: inclua urls de imagem da mensagem de entrada.- computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador. |
| Type | cadeia |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Uma entrada de áudio para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Dados de áudio codificados em Base64. |
Yes | |
| format | enumeração | O formato dos dados de áudio. Os formatos com suporte no momento são mp3 e wav.Valores possíveis: mp3, wav |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_audio.Valores possíveis: input_audio |
Yes |
InputContent
Esse componente pode ser um dos seguintes:
InputFile
Uma entrada de arquivo para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_data | cadeia | O conteúdo do arquivo a ser enviado para o modelo. |
No | |
| file_id | cadeia | A ID do arquivo a ser enviado para o modelo. |
No | |
| filename | cadeia | O nome do arquivo a ser enviado para o modelo. |
No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Yes |
InputImage
Uma entrada de imagem para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detail | enumeração | O nível de detalhes da imagem a ser enviada para o modelo. Uma opção entre high, low ou auto. Usa auto como padrão.Valores possíveis: high, , lowauto |
Yes | |
| file_id | cadeia | A ID do arquivo a ser enviado para o modelo. |
No | |
| image_url | cadeia | A URL da imagem a ser enviada para o modelo. Uma URL totalmente qualificada ou uma imagem codificada em base64 em uma URL de dados. |
No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Yes |
InputItem
Esse componente pode ser um dos seguintes:
InputMessage
Uma mensagem de entrada para o modelo com uma função que indica a hierarquia de instruções a seguir. As instruções fornecidas com a função developer ou system têm precedência sobre as instruções fornecidas com a função user.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente types. |
Yes | |
| função | enumeração | A função da entrada de mensagem. Uma opção entre user, system ou developer.Valores possíveis: user, , systemdeveloper |
Yes | |
| status | enumeração | O status do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre defina como message.Valores possíveis: message |
No |
InputMessageContentList
Uma lista de um ou muitos itens de entrada para o modelo, contendo tipos de conteúdo diferentes.
Nenhuma propriedade definida para esse componente.
InputMessageResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente types. |
Yes | |
| id | cadeia | A ID exclusiva da entrada da mensagem. |
Yes | |
| função | enumeração | A função da entrada de mensagem. Uma opção entre user, system ou developer.Valores possíveis: user, , systemdeveloper |
Yes | |
| status | enumeração | O status do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre defina como message.Valores possíveis: message |
No |
InputText
Uma entrada de texto para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | A entrada de texto para o modelo. |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Yes |
Item
Item de conteúdo usado para gerar uma resposta.
Esse componente pode ser um dos seguintes:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Um identificador interno para um item a ser referenciado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | A ID do item a ser referenciado. |
Yes | |
| tipo | enumeração | O tipo de item a ser referenciado. Sempre item_reference.Valores possíveis: item_reference |
Yes |
ItemResource
Item de conteúdo usado para gerar uma resposta.
Esse componente pode ser um dos seguintes:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Uma coleção de pressionamentos de teclas que o modelo deseja realizar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| keys | matriz | A combinação de teclas que o modelo está solicitando que sejam pressionadas. Essa é uma matriz de cadeias de caracteres, cada uma representando uma chave. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação keypress, essa propriedade é sempre definida como keypress.Valores possíveis: keypress |
Yes |
Metadata
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel.
As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Nenhuma propriedade definida para esse componente.
ModelResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | Modelo usado para gerar as respostas. | No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
No | 1 |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. . |
No |
Move
Uma ação de movimentação do mouse.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move.Valores possíveis: move |
Yes | |
| x | inteiro | A coordenada x para a qual mover. |
Yes | |
| y | inteiro | A coordenada y para a qual mover. |
Yes |
OutputAudio
Uma saída de áudio do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Dados de áudio do modelo codificados em Base64. |
Yes | |
| transcrição | cadeia | A transcrição dos dados de áudio provenientes do modelo. |
Yes | |
| tipo | enumeração | O tipo do áudio de saída. Sempre output_audio.Valores possíveis: output_audio |
Yes |
OutputContent
Esse componente pode ser um dos seguintes:
OutputItem
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | ComputerAction | Yes | ||
| arguments | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. |
Yes | |
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. |
Yes | |
| conteúdo | matriz | Conteúdo de texto de raciocínio. |
Yes | |
| id | cadeia | O identificador exclusivo do conteúdo de raciocínio. |
Yes | |
| name | cadeia | O nome da função a ser executada. |
Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada de computador. |
Yes | |
| queries | matriz | As consultas usadas para pesquisar arquivos. |
Yes | |
| results | matriz | Os resultados da chamada da ferramenta de pesquisa de arquivos. |
No | |
| função | enumeração | A função da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Yes |
OutputMessage
Uma mensagem de saída do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo da mensagem de saída. |
Yes | |
| id | cadeia | A identificação única da mensagem de saída. |
Yes | |
| função | enumeração | A função da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Yes | |
| status | enumeração | O status da entrada da mensagem. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Yes | |
| tipo | enumeração | O tipo da mensagem de saída. Sempre message.Valores possíveis: message |
Yes |
OutputText
Uma saída de texto do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| annotations | matriz | As anotações da saída de texto. |
Yes | |
| enviar SMS | cadeia | A saída de texto do modelo. |
Yes | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Yes |
RealtimeSessionCreateRequest
Configuração de objeto de sessão em tempo real.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits em uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de byte little-endian.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser definido como null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. Filtrar o áudio pode melhorar a precisão do VAD e da detecção de turnos (reduzindo falsos positivos) e o desempenho do modelo ao aprimorar a percepção do áudio de entrada. |
No | |
| └─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada, que por padrão está desativada e pode ser ajustada para null para desativar quando ativada. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio do ponto de extremidade de transcrições e deve ser tratada como diretriz de conteúdo de áudio de entrada, em vez de precisamente o que o modelo ouviu. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição. |
No | |
| └─ idioma | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ modelo | cadeia | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribee gpt-4o-mini-transcribe-2025-12-15whisper-1. |
No | |
| └─ comando | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. Usa inf como padrão. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| modelo | cadeia | O nome da implantação usada para essa sessão. |
No | |
| output_audio_format | enumeração | O formato do áudio de saída. As opções são pcm16, g711_ulaw ou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho. |
No | 0.8 |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função. |
No | auto |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de turnos, seja por VAD do servidor ou VAD semântico. Isso pode ser configurado para null para desativar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário fica inaudível com uhhm, o modelo pontuará uma baixa probabilidade de fim de turno e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ criar_resposta | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de parada do VAD. |
No | True |
| └─ ânsia | enumeração | Usado apenas para o modo semantic_vad. A ânsia do modelo de responder.
low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, , medium, highauto |
No | |
| └─ resposta_de_interrupção | boolean | Se deve ou não interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorrer um evento de início de VAD. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para o modo server_vad. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | inteiro | Usado apenas para o modo server_vad. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. |
No | |
| └─ limite | number | Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ tipo | enumeração | O tipo de detecção de turno. Valores possíveis: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Uma nova configuração de sessão em tempo real, com uma chave efêmera. O TTL padrão para chaves é de um minuto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| client_secret | objeto | Chave efêmera retornada pela API. | Yes | |
| └─ data_de_expiração | inteiro | Carimbo de data/hora para quando o token expirar. Atualmente, todos os tokens expiram após um minuto. |
No | |
| └─ valor | cadeia | Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API do Realtime. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor. |
No | |
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw. |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada, que por padrão está desativada e pode ser ajustada para null para desativar quando ativada. A transcrição de áudio de entrada não é nativa do modelo, pois o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona por meio de Whisper e deve ser tratada como orientação aproximada em vez da representação compreendida pelo modelo. |
No | |
| └─ modelo | cadeia | O modelo a ser usado para transcrição whisper-1 é o único modelo com suporte no momento. |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta (por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. Usa inf como padrão. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| output_audio_format | cadeia | O formato do áudio de saída. As opções são pcm16, g711_ulaw ou g711_alaw. |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. O valor padrão é 0,8. |
No | |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, noneou requiredespecificam uma função. |
No | |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de turnos. Pode ser definido para null para desativar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. |
No | |
| └─ prefix_padding_ms | inteiro | Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | inteiro | Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. |
No | |
| └─ limite | number | Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ tipo | cadeia | Tipo de detecção de turnos, há suporte apenas para server_vad no momento. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configuração do objeto de sessão de transcrição em tempo real.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits em uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de byte little-endian.Valores possíveis: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser definido como null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. Filtrar o áudio pode melhorar a precisão do VAD e da detecção de turnos (reduzindo falsos positivos) e o desempenho do modelo ao aprimorar a percepção do áudio de entrada. |
No | |
| └─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada. Opcionalmente, o cliente pode definir o idioma e solicitar a transcrição, eles oferecem diretrizes adicionais para o serviço de transcrição. |
No | |
| └─ idioma | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ modelo | enumeração | O modelo a ser usado para transcrição, as opções atuais sãogpt-4o-transcribe, , , gpt-4o-transcribe-diarizee gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15. whisper-1Valores possíveis: gpt-4o-transcribe, , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ comando | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de caracteres de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de turnos, seja por VAD do servidor ou VAD semântico. Isso pode ser configurado para null para desativar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de detecção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do usuário fica inaudível com uhhm, o modelo pontuará uma baixa probabilidade de fim de turno e aguardará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ criar_resposta | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorre um evento de parada do VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ ânsia | enumeração | Usado apenas para o modo semantic_vad. A ânsia do modelo de responder.
low aguardará mais tempo para que o usuário continue falando, high responderá mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, , medium, highauto |
No | |
| └─ resposta_de_interrupção | boolean | Se deve ou não interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorrer um evento de início de VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para o modo server_vad. Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | inteiro | Usado apenas para o modo server_vad. Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. |
No | |
| └─ limite | number | Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ tipo | enumeração | O tipo de detecção de turno. Valores possíveis: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Uma nova configuração de sessão de transcrição em tempo real.
Quando uma sessão é criada no servidor por meio da API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada por meio da API WebSocket.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| client_secret | objeto | Chave efêmera retornada pela API. Só está presente quando a sessão é criada no servidor por meio da API REST. |
Yes | |
| └─ data_de_expiração | inteiro | Carimbo de data/hora para quando o token expirar. Atualmente, todos os tokens expiram após um minuto. |
No | |
| └─ valor | cadeia | Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API do Realtime. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor. |
No | |
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulaw ou g711_alaw. |
No | |
| input_audio_transcription | objeto | Configuração do modelo de transcrição. |
No | |
| └─ idioma | cadeia | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 (por exemplo en) melhora a precisão e a latência. |
No | |
| └─ modelo | enumeração | O modelo a ser usado para transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 ou whisper-1.Valores possíveis: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └─ comando | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve corresponder ao idioma de áudio. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina-o como ["text"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de turnos. Pode ser definido para null para desativar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume de áudio e responderá ao final da fala do usuário. |
No | |
| └─ prefix_padding_ms | inteiro | Quantidade de áudio a ser incluída antes da fala detectada pelo VAD (em milissegundos). O padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | inteiro | Duração do silêncio para detectar a parada de fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas pode intervir durante pausas curtas do usuário. |
No | |
| └─ limite | number | Limite de ativação para VAD (0,0 a 1,0), o valor padrão é 0,5. Um limite mais alto exigirá um áudio mais alto para ativar o modelo e, portanto, poderá ter um desempenho melhor em ambientes barulhentos. |
No | |
| └─ tipo | cadeia | Tipo de detecção de turnos, há suporte apenas para server_vad no momento. |
No |
Reasoning
Opções de configuração para modelos de raciocínio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Esforço | ReasoningEffort | Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
Yes | meio |
| resumo | enumeração | Um resumo do raciocínio executado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Uma opção entre concise ou detailed.Valores possíveis: concise, detailed |
No |
ReasoningItem
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Conteúdo de texto de raciocínio. |
Yes | |
| id | cadeia | O identificador exclusivo do conteúdo de raciocínio. |
Yes | |
| status | enumeração | A situação do item. Uma opção entre in_progress, completed ou incomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
No | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Yes |
Refusal
Uma recusa do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A explicação da recusa do modelo. |
Yes | |
| tipo | enumeração | O tipo da recusa. Sempre refusal.Valores possíveis: refusal |
Yes |
response
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Unix timestamp (em segundos) de quando esta Resposta foi criada. |
Yes | |
| erro | ResponseError | Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta. |
Yes | |
| id | cadeia | Identificador exclusivo para esta resposta. |
Yes | |
| incomplete_details | objeto | Detalhes sobre por que a resposta está incompleta. |
Yes | |
| └─ motivo | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| instructions | cadeia | Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
Yes | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado da conversa. |
No | |
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| modelo | cadeia | Modelo usado para gerar as respostas. | Yes | |
| objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Yes | |
| saída | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz dependem da resposta do modelo.- Em vez de acessar o primeiro item na output lista e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde for suportada em SDKs. |
Yes | |
| output_text | cadeia | Propriedade de conveniência somente do SDK que contém a saída de texto agregada de todos os itens output_text na matriz output, se houver algum. Com suporte nos SDKs python e JavaScript. |
No | |
| parallel_tool_calls | boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. |
Yes | True |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. |
No | |
| status | enumeração | O status da geração de resposta. Uma opção entre completed, failed, in_progress ou incomplete.Valores possíveis: completed, , failed, in_progressincomplete |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas. |
Yes | 1 |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais: – entradas e saídas de texto – Saídas estruturadas |
No | |
| └─ Formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
Yes | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas |
Yes | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas. |
Yes | 1 |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa. - disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| uso | ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados. |
No | |
| usuário | cadeia | Um identificador exclusivo que representa o usuário final, que pode ajudar o OpenAI a monitorar e detectar abusos. . |
No |
ResponseAudioDeltaEvent
Emitido quando há uma resposta de áudio parcial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | Uma parte dos bytes de áudio de resposta codificados em Base64. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.audio.delta.Valores possíveis: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Emitido quando a resposta de áudio é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre response.audio.done.Valores possíveis: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Emitido quando há uma transcrição parcial do áudio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | A transcrição parcial da resposta de áudio. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.delta.Valores possíveis: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Emitido quando a transcrição de áudio completa é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.done.Valores possíveis: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Emitido quando um snippet de código parcial é adicionado pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | O trecho parcial de código adicionado pelo interpretador de código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do intérprete de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.delta.Valores possíveis: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Emitido quando a saída do snippet de código é finalizada pelo intérprete de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | A saída final do snippet de código pelo intérprete de código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do intérprete de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.done.Valores possíveis: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Emitido quando a chamada do interpretador de código é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar o código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do intérprete de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.completed.Valores possíveis: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Emitido quando uma chamada de interpretador de código está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar o código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do intérprete de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.in_progress.Valores possíveis: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Emitido quando o interpretador de código está interpretando ativamente o snippet de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar o código. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada do intérprete de código está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.interpreting.Valores possíveis: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Emitido quando a resposta do modelo é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.completed.Valores possíveis: response.completed |
Yes |
ResponseContentPartAddedEvent
Emitido quando uma nova parte de conteúdo é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que foi adicionada. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| part | OutputContent | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.content_part.added.Valores possíveis: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Emitido quando uma parte do conteúdo é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que está concluída. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| part | OutputContent | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.content_part.done.Valores possíveis: response.content_part.done |
Yes |
ResponseCreatedEvent
Um evento emitido quando uma resposta é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.created.Valores possíveis: response.created |
Yes |
ResponseError
Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | ResponseErrorCode | O código de erro da resposta. |
Yes | |
| mensagem | cadeia | Uma descrição do erro legível para humanos. |
Yes |
ResponseErrorCode
O código de erro da resposta.
| Property | Value |
|---|---|
| Description | O código de erro da resposta. |
| Type | cadeia |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Emitido quando ocorre um erro.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código do erro. |
Yes | |
| mensagem | cadeia | A mensagem de erro. |
Yes | |
| param | cadeia | O parâmetro de erro. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre error.Valores possíveis: error |
Yes |
ResponseFailedEvent
Um evento emitido quando uma resposta falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.failed.Valores possíveis: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.completed.Valores possíveis: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Emitido quando uma chamada de pesquisa de arquivo é iniciada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.in_progress.Valores possíveis: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Emitido quando uma pesquisa de arquivo está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.searching.Valores possíveis: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Emitido quando há um delta de argumentos parciais de chamada de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | O delta de argumentos de chamada de função que é adicionado. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o delta de argumentos de chamada de função é adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.function_call_arguments.delta.Valores possíveis: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Emitido quando os argumentos de chamada de função são finalizados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Os argumentos de chamada de função. | Yes | |
| item_id | cadeia | O ID do item. | Yes | |
| output_index | inteiro | O índice do item de saída. | Yes | |
| tipo | enumeração | Valores possíveis: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Emitido quando a resposta está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.in_progress.Valores possíveis: response.in_progress |
Yes |
ResponseIncompleteEvent
Um evento emitido quando uma resposta é concluída como incompleta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.incomplete.Valores possíveis: response.incomplete |
Yes |
responseItemList
Uma lista de itens de resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Uma lista de itens usados para gerar essa resposta. | Yes | |
| first_id | cadeia | A ID do primeiro item da lista. | Yes | |
| has_more | boolean | Se há mais itens disponíveis. | Yes | |
| last_id | cadeia | A ID do último item da lista. | Yes | |
| objeto | enumeração | O tipo de objeto retornado deve ser list.Valores possíveis: list |
Yes |
ResponseModalities
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O modelo gpt-4o-audio-preview também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para esse componente.
ResponseModalitiesTextOnly
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
Em breve, essa API dará suporte a outras modalidades de saída, incluindo áudio e imagens.
Nenhuma propriedade definida para esse componente.
ResponseOutputItemAddedEvent
Emitido quando um novo item de saída é adicionado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | inteiro | O índice do item de saída que foi adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.added.Valores possíveis: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Emitido quando um item de saída é marcado como concluído.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | inteiro | O índice do item de saída que foi marcado como concluído. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.done.Valores possíveis: response.output_item.done |
Yes |
ResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| instructions | cadeia | Insere uma mensagem de sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão levadas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado da conversa. |
No | |
| previous_response_id | cadeia | A ID exclusiva da resposta anterior ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. |
No | |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais: – entradas e saídas de texto – Saídas estruturadas |
No | |
| └─ Formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para modelos gpt-4o e mais recentes: A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: se o contexto dessa resposta e os anteriores excederem o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto soltando itens de entrada no meio da conversa. - disabled (padrão): se uma resposta de modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
ResponseRefusalDeltaEvent
Emitido quando há um texto de recusa parcial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o texto de recusa é adicionado. |
Yes | |
| delta | cadeia | O texto de recusa que é adicionado. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual o texto de recusa é adicionado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o texto de recusa é adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.delta.Valores possíveis: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Emitido quando o texto de recusa é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que o texto de recusa é finalizado. |
Yes | |
| item_id | cadeia | A ID do item de saída em que o texto de recusa é finalizado. |
Yes | |
| output_index | inteiro | O índice do item de saída em que o texto de recusa é finalizado. |
Yes | |
| refusal | cadeia | O texto finalizado de recusa. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.done.Valores possíveis: response.refusal.done |
Yes |
responseStreamEvent
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| anotação | Annotation | Yes | ||
| annotation_index | inteiro | O índice da anotação que foi adicionada. |
Yes | |
| arguments | cadeia | Os argumentos de chamada de função. | Yes | |
| codificar | cadeia | O código do erro. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar o código. |
Yes | |
| content_index | inteiro | O índice da parte de conteúdo que o conteúdo do texto é finalizado. |
Yes | |
| delta | cadeia | O delta de texto que foi adicionado. |
Yes | |
| item | OutputItem | O item de saída que foi marcado como concluído. |
Yes | |
| item_id | cadeia | A ID do item de saída em que o conteúdo do texto é finalizado. |
Yes | |
| mensagem | cadeia | A mensagem de erro. |
Yes | |
| output_index | inteiro | O índice do item de saída que o conteúdo do texto é finalizado. |
Yes | |
| param | cadeia | O parâmetro de erro. |
Yes | |
| part | OutputContent | A parte do conteúdo que está pronta. |
Yes | |
| refusal | cadeia | O texto finalizado de recusa. |
Yes | |
| response | response | A resposta estava incompleta. |
Yes | |
| enviar SMS | cadeia | O conteúdo do texto finalizado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Emitido quando uma anotação de texto é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| anotação | Annotation | Yes | ||
| annotation_index | inteiro | O índice da anotação que foi adicionada. |
Yes | |
| content_index | inteiro | O índice da parte de conteúdo à qual a anotação de texto foi adicionada. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual a anotação de texto foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a anotação de texto foi adicionada. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.annotation.added.Valores possíveis: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Emitido quando há um delta de texto adicional.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o delta de texto foi adicionado. |
Yes | |
| delta | cadeia | O delta de texto que foi adicionado. |
Yes | |
| item_id | cadeia | A ID do item de saída ao qual o delta de texto foi adicionado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o delta de texto foi adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.delta.Valores possíveis: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Emitido quando o conteúdo do texto é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que o conteúdo do texto é finalizado. |
Yes | |
| item_id | cadeia | A ID do item de saída em que o conteúdo do texto é finalizado. |
Yes | |
| output_index | inteiro | O índice do item de saída que o conteúdo do texto é finalizado. |
Yes | |
| enviar SMS | cadeia | O conteúdo do texto finalizado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
ResponseUsage
Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | inteiro | O número de tokens de entrada. | Yes | |
| output_tokens | inteiro | O número de tokens de saída. | Yes | |
| output_tokens_details | objeto | Um detalhamento detalhado dos tokens de saída. | Yes | |
| └─ tokens_de_raciocínio | inteiro | O número de tokens de raciocínio. | No | |
| total_tokens | inteiro | O número total de tokens usados. | Yes |
Screenshot
Uma ação de captura de tela.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot.Valores possíveis: screenshot |
Yes |
Scroll
Uma ação de rolagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | inteiro | A distância de rolagem horizontal. |
Yes | |
| scroll_y | inteiro | A distância de rolagem vertical. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll.Valores possíveis: scroll |
Yes | |
| x | inteiro | A coordenada x em que a rolagem ocorreu. |
Yes | |
| y | inteiro | A coordenada y em que a rolagem ocorreu. |
Yes |
StopConfiguration
Até 4 sequências em que a API para de gerar tokens adicionais. O texto retornado não conterá a sequência de parada.
Esse componente pode ser um dos seguintes:
TextResponseFormatConfiguration
Um objeto que especifica o formato que o modelo deve gerar.
A configuração { "type": "json_schema" } habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.
O formato padrão é { "type": "text" } sem opções adicionais.
Não recomendado para modelos gpt-4o e mais recentes:
A configuração para { "type": "json_object" } habilita o modo JSON antigo, garantindo que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferencial para modelos que dão suporte a ele.
Esse componente pode ser um dos seguintes:
TextResponseFormatJsonSchema
Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre saídas estruturadas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição de para que serve o formato de resposta, usada pelo modelo para determinar a forma de responder no formato. |
No | |
| name | cadeia | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. |
No | |
| esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. | Yes | |
| strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema.Valores possíveis: json_schema |
Yes |
Tool
Esse componente pode ser um dos seguintes:
ToolChoiceFunction
Use essa opção para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes | |
| tipo | enumeração | Para a chamada de função, o tipo é sempre function.Valores possíveis: function |
Yes |
ToolChoiceOptions
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
| Property | Value |
|---|---|
| Description | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
| Type | cadeia |
| Values | noneautorequired |
ToolChoiceTypes
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ferramenta hospedada que o modelo deve usar. Valores permitidos são: - file_search- computer_use_previewValores possíveis: file_search, computer_use_preview |
Yes |
Tipo
Uma ação para digitar texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O texto a ser digitado. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.Valores possíveis: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. |
Yes |
UrlCitation
Uma citação para um recurso da Web usado para gerar uma resposta de modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | O índice do último caractere da citação de URL na mensagem. |
Yes | |
| start_index | inteiro | O índice do primeiro caractere da citação de URL na mensagem. |
Yes | |
| title | cadeia | O título do recurso da Web. |
Yes | |
| tipo | enumeração | O tipo da citação de URL. Sempre url_citation.Valores possíveis: url_citation |
Yes | |
| url | cadeia | URL do recurso da Web. |
Yes |
VectorStoreFileAttributes
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Nenhuma propriedade definida para esse componente.
VectorStoreFileContentResponse
Representa o conteúdo analisado de um arquivo de repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Conteúdo analisado do arquivo. | Yes | |
| has_more | boolean | Indica se há mais páginas de conteúdo a serem buscadas. | Yes | |
| next_page | cadeia | O token para a próxima página, se houver. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.file_content.pageValores possíveis: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50 inclusivo. | No | 10 |
| consulta | cadeia de caracteres ou matriz | Uma cadeia de caracteres de consulta para uma pesquisa | Yes | |
| ranking_options | objeto | Opções de classificação para pesquisa. | No | |
| └─ ranker | enumeração | Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ limite_de_pontuação | number | No | 0 | |
| rewrite_query | boolean | Se deve reescrever a consulta em linguagem natural para a busca em vetores. | No | False |
VectorStoreSearchResultContentObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto retornado da pesquisa. | Yes | |
| tipo | enumeração | O tipo de conteúdo. Valores possíveis: text |
Yes |
VectorStoreSearchResultItem
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números. |
Yes | |
| conteúdo | matriz | Partes de conteúdo do arquivo. | Yes | |
| file_id | cadeia | A ID do arquivo do repositório de vetores. | Yes | |
| filename | cadeia | O nome do arquivo de repositório de vetores. | Yes | |
| pontuação | number | A pontuação de similaridade para o resultado. | Yes |
VectorStoreSearchResultsPage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | A lista de itens de resultado da pesquisa. | Yes | |
| has_more | boolean | Indica se há mais resultados a serem buscados. | Yes | |
| next_page | cadeia | O token para a próxima página, se houver. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.search_results.pageValores possíveis: vector_store.search_results.page |
Yes | |
| search_query | matriz | Yes |
VoiceIdsShared
Nenhuma propriedade definida para esse componente.
Wait
Uma ação de espera.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definida como wait.Valores possíveis: wait |
Yes |
ReasoningEffort
Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta.
| Property | Value |
|---|---|
| Description | Restringe o esforço de raciocínio para modelos de raciocínio. Os valores atualmente com suporte são low, medium e high. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio de uma resposta. |
| Type | cadeia |
| Default | meio |
| Values | lowmediumhigh |
errorEvent
Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | error | Yes | ||
| evento | cadeia | Yes |
Enumeração de evento: ErrorEventEnum
| Value | Description |
|---|---|
| erro |
doneEvent
Ocorre quando um fluxo termina.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Yes | ||
| evento | cadeia | Yes |
Enumeração de evento: DoneEventEnum
| Value | Description |
|---|---|
| done |
Enumeração de dados: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Próximas etapas
Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.