Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Observação
Este documento refere-se ao portal Microsoft Foundry (clássico).
🔍 Consulte a documentação (nova) da Microsoft Foundry para saber mais sobre o novo portal.
Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.
Especificações da API
O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API principais:
- Plano de controlo
- Plano de dados - criação
- Plano de dados - inferência
Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem o seu próprio conjunto exclusivo de visualizações e de versões de API estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.
Important
Agora há uma nova API de inferência de pré-visualização. Saiba mais em nosso guia de ciclo de vida da API.
| API | Versão de pré-visualização mais recente | Última versão do GA | Specifications | Description |
|---|---|---|---|---|
| Plano de controlo | 2025-07-01-preview |
2025-06-01 |
Arquivos de especificações | A API do plano de controle é usada para operações como criação de recursos, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com recursos como o Gerenciador de Recursos do Azure, Bicep, Terraform e CLI do Azure. |
| Plano de dados | v1 preview |
v1 |
Arquivos de especificações | A API do plano de dados controla as operações de inferência e criação. |
Authentication
O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou ID do Microsoft Entra.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a
api-keychave de API no cabeçalho HTTP. O Guia de início rápido fornece orientação sobre como fazer chamadas com esse tipo de autenticação.Autenticação do Microsoft Entra ID: você pode autenticar uma chamada de API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos numa solicitação como cabeçalho
Authorization. O token fornecido deve ser precedido porBearer, por exemploBearer YOUR_AUTH_TOKEN, . Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.
Controle de versão da API REST
As APIs de serviço são versionadas através do parâmetro de consulta api-version. Todas as versões seguem a estrutura de datas AAAA-MM-DD. Por exemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a 2025-04-01-preview versão de pré-visualização da especificação de inferência do plano de dados do Azure OpenAI.
Se você estiver procurando documentação sobre a versão mais recente da API do GA, consulte a API de inferência de plano de dados do GA mais recente
Finalizações - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Cria uma conclusão para o prompt fornecido, os parâmetros e o modelo escolhido.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| best_of | número inteiro | Gera best_of completamentos do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade logarítmica por token). Os resultados não podem ser transmitidos.Quando usado com n, best_of controla o número de completamentos candidatos e n especifica quantos devem ser retornados — best_of deve ser maior que n.Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Echo de volta o prompt, além da conclusão | No | False |
| frequency_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. | No | 0 |
| logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | número inteiro | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API devolve uma lista dos 5 tokens mais prováveis. A API sempre retorna o logprob do token de amostra, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
No | None |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo. |
No | 16 |
| n | número inteiro | Quantas completações gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | No | 0 |
| avisar | cadeia de caracteres ou matriz | O prompt para gerar completações, codificado como uma cadeia de caracteres, uma matriz de cadeias de caracteres, uma matriz de tokens ou uma matriz de matrizes de tokens. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Yes | |
| seed | número inteiro | Se especificado, o nosso sistema faz o maior esforço possível para amostrar de forma determinística, de modo que solicitações repetidas com o mesmo seed e os mesmos parâmetros devem retornar o mesmo resultado.O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend. |
No | |
| stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API para de gerar mais tokens. O texto devolvido não conterá a sequência de paragem. | No | |
| fluxo | boolean | Se o progresso parcial deve ser transmitido. Se definido, os tokens são enviados como eventos somente de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código Python. |
No | False |
| suffix | cadeia (de caracteres) | O sufixo que vem após a conclusão do texto inserido. Este parâmetro só é suportado para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt fornecido, os parâmetros e o modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporações - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | A ID de implantação do modelo que foi implantado. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dimensions | número inteiro | O número de dimensões que as incorporações de saída resultantes devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. |
No | |
| encoding_format | cadeia (de caracteres) | O formato para retornar as incorporações. Tanto pode ser float como base64. O padrão é float. |
No | |
| dados introduzidos | cadeia de caracteres ou matriz | Insira texto para incorporar, codificado como uma cadeia de caracteres ou matriz de tokens. Para incorporar várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. |
Yes | |
| input_type | cadeia (de caracteres) | tipo de entrada de pesquisa de incorporação a ser usada | No | |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objecto |
Examples
Example
Retorne as incorporações para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Respostas: Código de status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusão do bate-papo - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Cria uma conclusão para a mensagem de chat
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objecto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ formato | enumeração | Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16. Valores possíveis: wav, mp3, flac, opus, , pcm16 |
No | |
| └─ voz | enumeração | Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, novae shimmer.Valores possíveis: alloy, echo, fable, onyx, , nova, shimmer |
No | |
| data_sources | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam. Esta especificação extra só é compatível com o Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
No | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de cada token no tokenizador correspondente) para um valor de viés correspondido de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. |
No | False |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo de código Python. | Yes | |
| metadados | objecto | Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. | No | |
| modalities | ChatCompletionModalities | Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos são capazes de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
No | |
| n | número inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 para minimizar custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | No | True |
| predição | PredictionContent | Configuração para uma saída prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. | No | |
| presence_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| reasoning_effort | enumeração |
Apenas modelos O1 Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.Valores possíveis: low, medium, high |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.Configurar para { "type": "json_schema", "json_schema": {...} } habilita Saídas Estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.Configurar { "type": "json_object" } ativa o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| seed | número inteiro | Este recurso está em versão Beta. Se especificado, o nosso sistema faz o maior esforço possível para amostrar de forma determinística, de modo que solicitações repetidas com o mesmo seed e os mesmos parâmetros devem retornar o mesmo resultado.O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências onde a API para de gerar mais tokens. |
No | |
| armazenar | boolean | Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | No | |
| fluxo | boolean | Se configurado, os deltas de mensagem parciais são enviados, tal como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código Python. |
No | False |
| stream_options | chatCompletionStreamOptions | Opções de resposta em streaming. Defina isso apenas quando definir stream: true. |
No | None |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas. |
No | |
| top_logprobs | número inteiro | Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis de serem retornados em cada posição de token, cada um com uma probabilidade em log associada.
logprobs deve ser definido como true se este parâmetro for usado. |
No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
No | |
| user_security_context | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud. | No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objecto |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt fornecido, os parâmetros e o modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados da Pesquisa do Azure e na identidade gerenciada atribuída ao sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados vetoriais de imagem da Pesquisa do Azure.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão com base nos dados vetoriais da Pesquisa do Azure, na mensagem do assistente anterior e na identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o banco de dados Mongo fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Elasticsearch fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o recurso Pinecone fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcreve o áudio para o idioma de entrada.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| modelo | cadeia (de caracteres) | ID do modelo a utilizar. As opções são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, e gpt-4o-transcribe-diarize. |
Yes | |
| ficheiro | cadeia (de caracteres) | O objeto do arquivo de áudio a ser transcrito. | Yes | |
| linguagem | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. | No | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição.
response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word, ou segment. Nota: Não há latência adicional nos carimbos de data/hora para segmentos, mas a geração de carimbos de data/hora para palavras resulta em latência adicional. |
No | ['segment'] |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objecto | |
| text/plain | cadeia (de caracteres) | Texto transcrito no formato de saída (quando response_format era um dos text, vtt ou srt). |
Examples
Example
Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcreve e traduz áudio de entrada para texto em inglês.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O arquivo de áudio a ser traduzido. | Yes | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | No | 0 |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objecto | |
| text/plain | cadeia (de caracteres) | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Examples
Example
Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Fala - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Gera áudio a partir do texto de entrada.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados introduzidos | cadeia (de caracteres) | O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Yes | |
| response_format | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, , wav, pcm |
No | |
| speed | number | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0.
1.0 é o padrão. |
No | 1.0 |
| voice | enumeração | A voz a ser usada para síntese de fala. Valores possíveis: alloy, echo, fable, onyx, , nova, shimmer |
Yes |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | cadeia (de caracteres) |
Examples
Example
Sintetiza o áudio do texto fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respostas: Código de status: 200
{
"body": "101010101"
}
Gerações de imagens - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Gera um lote de imagens a partir de uma legenda de texto numa dada implementação de modelos DALL-E ou da série gpt-image-1
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | imageBackground | Permite definir a transparência para o fundo das imagens geradas. Este parâmetro é apenas suportado para modelos da série gpt-image-1. | No | auto |
| n | número inteiro | O número de imagens a gerar. Para DALL-E-3, é suportado apenas n=1. | No | 1 |
| output_compression | número inteiro | O nível de compressão (0-100%) para as imagens geradas. Este parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. | No | 100 |
| output_format | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Apenas disponível para modelos da série gpt-image-1. | No | png |
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para a série gpt-image-1 e 4000 caracteres para dall-e-3 | Yes | |
| partial_images | número inteiro | O número de imagens parciais a gerar. Esse parâmetro é usado para transmitir respostas que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. | 0 | |
| fluxo | boolean | Edite a imagem no modo de streaming. | no | false |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são retornadas. Este parâmetro não é suportado para modelos da série gpt-image-1 que retornam sempre imagens codificadas em base64.Valores possíveis: url, b64_json. |
No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| style | imageStyle | O estilo das imagens geradas. Apenas suportado para dall-e-3. | No | vivid |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | No |
Responses
Código de status: 200
Descrição: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de status: padrão
Descrição: Ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Cria imagens com um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Gerações de imagens - Editar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Edita uma imagem a partir de uma legenda de texto numa determinada implementação do modelo gpt-image-1
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia (de caracteres) | |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | cadeia de caracteres ou matriz | A(s) imagem(ns) a editar. Deve ser um arquivo de imagem suportado ou uma matriz de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 50MB. | Yes | |
| input_fidelity | cadeia (de caracteres) | Controle quanto esforço o modelo irá exercer para corresponder ao estilo e características, especialmente características faciais, das imagens de entrada. Este parâmetro é apenas suportado para modelos da série gpt-image-1. Suporta high e low. |
no |
low. |
| máscara | cadeia (de caracteres) | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões que a imagem. | No | |
| n | número inteiro | O número de imagens a gerar. Deve ter entre 1 e 10. | No | 1 |
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| partial_images | O número de imagens parciais a gerar. Esse parâmetro é usado para transmitir respostas que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando definido como 0, a resposta será uma única imagem enviada em um evento de streaming. Observe que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. | |||
| fluxo | boolean | Edite a imagem no modo de streaming. | no | false |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | No |
Responses
Código de status: 200
Descrição: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de status: padrão
Descrição: Ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Lista - Assistentes
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Retorna uma lista de assistentes.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | consulta | No | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| order | consulta | No | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
| after | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Retorna uma lista de assistentes.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Criar - Assistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Crie um assistente com um modelo e instruções.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | Yes | ||
| name | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O armazenamento de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| └─ armazenamento_de_vetores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Crie um assistente com um modelo e instruções.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respostas: Código de status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obter - Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Recupera um assistente.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia (de caracteres) | O ID do assistente a ser recuperado. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Recupera um assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar - Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica um assistente.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia (de caracteres) | A identificação do assistente a ser modificada. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | No | ||
| name | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifica um assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respostas: Código de status: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Excluir - Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Excluir um assistente.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia (de caracteres) | O identificador do assistente a ser eliminado. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Exclui um assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Criar - Thread
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Crie um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| messages | matriz | Uma lista de mensagens para iniciar o thread. | No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| tool_resources | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
No | |
| └─ armazenamento_de_vetores | matriz | Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Cria um thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obter - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID do tópico que deve ser recuperado. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Recupera um thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID do tópico a ser modificado. Apenas o metadata pode ser modificado. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| tool_resources | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifica um thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Excluir - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Exclua um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | A ID do thread a ser excluído. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Exclui um thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Lista - Mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Retorna uma lista de mensagens para um determinado thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID dos threads aos quais as mensagens pertencem. |
| limit | consulta | No | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| order | consulta | No | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
| after | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| run_id | consulta | No | cadeia (de caracteres) | Filtre as mensagens pelo ID de execução que as gerou. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
Listar mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Criar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Criar uma mensagem.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | A ID dos threads para os quais criar uma mensagem. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. | No | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Yes | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| função | cadeia (de caracteres) | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user: Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant: Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Yes |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Criar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respostas: Código de status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obter - Mensagem
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recuperar uma mensagem.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | A ID dos threads aos quais esta mensagem pertence. |
| message_id | caminho | Yes | cadeia (de caracteres) | O ID da mensagem a ser recuperada. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Recuperar uma mensagem.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica uma mensagem.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | A ID do thread ao qual esta mensagem pertence. |
| message_id | caminho | Yes | cadeia (de caracteres) | O ID da mensagem a ser modificada. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modificar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Criar - Thread e Executar
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Crie um thread e execute-o em uma solicitação.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | A ID do assistente a ser usado para executar essa execução. | Yes | |
| instructions | cadeia (de caracteres) | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço máximo para usar apenas o número de tokens de conclusão especificados ao longo de várias etapas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificados, através de várias iterações da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| fluxo | boolean | Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| stream_options | chatCompletionStreamOptions | Opções de resposta em streaming. Defina isso apenas quando definir stream: true. |
No | None |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| conversa | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
No | |
| tool_resources | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
| truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crie um thread e execute-o em uma solicitação.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Lista - Execuções
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Retorna uma lista de execuções pertencentes a um thread.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | A ID do thread ao qual a execução pertence. |
| limit | consulta | No | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| order | consulta | No | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
| after | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Retorna uma lista de execuções pertencentes a um thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Criar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Crie uma execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID do tópico a executar. |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | cadeia (de caracteres) | Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | No | |
| additional_messages | matriz | Adiciona mensagens adicionais ao thread antes de criar a execução. | No | |
| assistant_id | cadeia (de caracteres) | A ID do assistente a ser usado para executar essa execução. | Yes | |
| instructions | cadeia (de caracteres) | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço máximo para usar apenas o número de tokens de conclusão especificados ao longo de várias etapas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificados, através de várias iterações da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| fluxo | boolean | Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
| truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crie uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obter - Executar
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera uma execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID dos threads que foram executados. |
| run_id | caminho | Yes | cadeia (de caracteres) | O identificador da execução a ser recuperada. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Consegue uma corrida.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica uma execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID dos threads que foram executados. |
| run_id | caminho | Yes | cadeia (de caracteres) | O ID da execução a ser modificada. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifica uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Enviar - Saídas da ferramenta para executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | A ID dos threads aos quais essa execução pertence. |
| run_id | caminho | Yes | cadeia (de caracteres) | O ID da execução que requere a submissão da saída da ferramenta. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fluxo | boolean | Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| tool_outputs | matriz | Uma lista de ferramentas para as quais os resultados estão sendo enviados. | Yes |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Cancela uma execução que é in_progress.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID do thread ao qual esta execução pertence. |
| run_id | caminho | Yes | cadeia (de caracteres) | A identificação da execução a ser cancelada. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Cancela uma execução que é in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista - Executar etapas
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Retorna uma lista de etapas de execução pertencentes a uma execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID do thread ao qual pertencem a execução e as etapas de execução. |
| run_id | caminho | Yes | cadeia (de caracteres) | O ID da execução a que as etapas de execução pertencem. |
| limit | consulta | No | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| order | consulta | No | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
| after | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia (de caracteres) | |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Retorna uma lista de etapas de execução pertencentes a uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Obter - Executar etapa
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Recupera uma etapa de execução.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia (de caracteres) | O ID do thread a qual a execução e etapa de execução pertence. |
| run_id | caminho | Yes | cadeia (de caracteres) | O identificador da execução à qual a etapa de execução pertence. |
| step_id | caminho | Yes | cadeia (de caracteres) | O identificador do passo de execução a ser recuperado. |
| include[] | consulta | No | matriz | Uma lista de campos adicionais a incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content para buscar o conteúdo do resultado da pesquisa de arquivos. |
| api-version | consulta | Yes | cadeia (de caracteres) |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Recupera uma etapa de execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista - Vetor Stores
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Retorna uma lista de repositórios vetoriais.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | consulta | No | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| order | consulta | No | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
| after | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Retorna uma lista de repositórios vetoriais.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Criar - Loja de vetores
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Crie um repositório vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
No | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| name | cadeia (de caracteres) | O nome do repositório de vetores. | No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Cria um repositório vetorial.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obter - Loja de vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera um armazenamento de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | O ID do repositório de vetores a ser recuperado. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Recupera um armazenamento de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar - Vetor Store
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica um armazenamento vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | O ID do repositório de vetores a ser modificado. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| name | cadeia (de caracteres) | O nome do repositório de vetores. | No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifica um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Excluir - Vetor Store
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Exclua um repositório de vetores.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | O identificador do repositório de vetores a eliminar. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Exclui um repositório vetorial.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista - Arquivos de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos de armazenamento vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual os arquivos pertencem. |
| limit | consulta | No | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| order | consulta | No | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
| after | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | No | cadeia (de caracteres) Valores possíveis: in_progress, completed, failed, cancelled |
Filtrar por estado do ficheiro. Um de in_progress, completed, failed, cancelled. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retorna uma lista de arquivos de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar - Arquivo de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | A ID do repositório de vetores para o qual criar um arquivo. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
No | |
| file_id | cadeia (de caracteres) | Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Yes |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Respostas: Código de status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obter - Arquivo de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera um arquivo de armazenamento vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | A ID do repositório vetorial ao qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia (de caracteres) | A ID do arquivo que está sendo recuperado. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Recupera um arquivo de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Excluir - Arquivo de armazenamento vetorial
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | A ID do repositório vetorial ao qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia (de caracteres) | A ID do arquivo a ser excluído. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Atualizar atributos em um arquivo de armazenamento vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia (de caracteres) | A ID do arquivo para atualizar atributos. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números. |
Yes |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Recuperar conteúdo do arquivo de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recupere o conteúdo analisado de um arquivo de armazenamento vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | O ID do repositório de vetores. |
| file_id | caminho | Yes | cadeia (de caracteres) | A ID do arquivo dentro do repositório de vetores. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Procurar no armazenamento de vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Pesquise partes relevantes em um repositório vetorial com base em um filtro de atributos de consulta e arquivo.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | O ID do repositório de vetores a ser pesquisado. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | número inteiro | O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive. | No | 10 |
| consulta | cadeia de caracteres ou matriz | Uma cadeia de caracteres de consulta para uma pesquisa | Yes | |
| ranking_options | objecto | Opções de classificação para pesquisa. | No | |
| └─ classificador | enumeração | Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ limiar_de_pontuação | number | No | 0 | |
| rewrite_query | boolean | Se a consulta de linguagem natural deve ser reescrita para pesquisa vetorial. | No | False |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Criar - Lote de arquivos de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Crie um lote de arquivo de armazenamento vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | O ID do repositório vetorial para o qual criar um lote de ficheiros. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Yes |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Crie um lote de arquivo de armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respostas: Código de status: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Obter - Vetor Store File Batch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera um lote de arquivo de armazenamento vetorial.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia (de caracteres) | O ID do lote de ficheiros que está a ser recuperado. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Recupera um lote de arquivo de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar - Lote de arquivos de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia (de caracteres) | O identificador do lote de arquivos a cancelar. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista - Arquivos em lote de arquivos de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos de armazenamento vetorial em um lote.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual os arquivos pertencem. |
| batch_id | caminho | Yes | cadeia (de caracteres) | A ID do lote de arquivos ao qual os arquivos pertencem. |
| limit | consulta | No | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| order | consulta | No | cadeia (de caracteres) Valores possíveis: asc, desc |
Ordem de classificação pela marcação created_at de data e hora dos objetos.
asc por ordem crescente e desc por ordem decrescente. |
| after | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
after é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, sua chamada subsequente poderá incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia (de caracteres) | Um cursor para uso na paginação.
before é um ID de objeto que define o seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada subsequente poderá incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | No | cadeia (de caracteres) Valores possíveis: in_progress, completed, failed, cancelled |
Filtrar por estado do ficheiro. Um de in_progress, completed, failed, cancelled. |
| api-version | consulta | Yes | cadeia (de caracteres) | Versão da API |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retorna uma lista de arquivos de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar - Sessão em Tempo Real
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Crie um token de API efêmero para uso em aplicativos do lado do cliente com a API em tempo real. Pode ser configurado com os mesmos parâmetros de sessão que o evento do session.update cliente.
Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token de API efêmero utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | objecto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada. |
No | |
| └─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objecto | Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do ponto de extremidade das transcrições e deve ser tratada como orientação sobre o conteúdo do áudio de entrada, em vez de exatamente o que o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição. |
No | |
| └─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhora a precisão e a latência. |
No | |
| └─ modelo | cadeia (de caracteres) | O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1. |
No | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| instructions | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
No | ||
| modelo | cadeia (de caracteres) | O nome da implementação utilizada para esta sessão. |
No | |
| output_audio_format | enumeração | O formato de saída de áudio. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para o melhor desempenho. |
No | 0.8 |
| tool_choice | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
No | auto |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objecto | Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm, o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ criar_resposta | boolean | Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. |
No | True |
| └─ Entusiasmo | enumeração | Usado apenas para o modo semantic_vad. A ânsia do modelo em responder.
low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
No | |
| └─ resposta_de_interrupção | boolean | Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início de VAD. |
No | True |
| └─ preenchimento_prefixo_ms | número inteiro | Usado apenas para o modo server_vad. Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | número inteiro | Usado apenas para o modo server_vad. Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
No | |
| └─ limiar | number | Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
No | |
| └─ tipo | enumeração | Tipo de deteção de curvas. Valores possíveis: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Código de status: 200
Descrição: Sessão criada com êxito.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Criar - Sessão de Transcrição em Tempo Real
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Crie um token de API efêmero para uso em aplicativos do lado do cliente com a API em tempo real especificamente para transcrições em tempo real.
Pode ser configurado com os mesmos parâmetros de sessão que o evento do transcription_session.update cliente.
Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token de API efêmero utilizável que pode ser usado para autenticar clientes de navegador para a API em tempo real.
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | O conjunto de itens a incluir na transcrição. Os itens disponíveis atualmente são: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enumeração | O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | objecto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada. |
No | |
| └─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objecto | Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição. |
No | |
| └─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhora a precisão e a latência. |
No | |
| └─ modelo | enumeração | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
No | ||
| turn_detection | objecto | Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm, o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ criar_resposta | boolean | Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ Entusiasmo | enumeração | Usado apenas para o modo semantic_vad. A ânsia do modelo em responder.
low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
No | |
| └─ resposta_de_interrupção | boolean | Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início de VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ preenchimento_prefixo_ms | número inteiro | Usado apenas para o modo server_vad. Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | número inteiro | Usado apenas para o modo server_vad. Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
No | |
| └─ limiar | number | Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
No | |
| └─ tipo | enumeração | Tipo de deteção de curvas. Valores possíveis: server_vad, semantic_vad |
No |
Responses
Código de status: 200
Descrição: Sessão criada com êxito.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Cria uma resposta de modelo.
Órgão do Pedido
Tipo de conteúdo: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | No | ||
| dados introduzidos | cadeia de caracteres ou matriz | Entradas de modelo | Yes | |
| instructions | cadeia (de caracteres) | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com o previous_response_id, as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| parallel_tool_calls | boolean | Se deve permitir que o modelo execute chamadas de ferramenta em paralelo. |
No | True |
| previous_response_id | cadeia (de caracteres) | O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. Saiba mais sobre o estado da conversação. |
No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. | No | |
| armazenar | boolean | Se a resposta do modelo gerado deve ser armazenada para recuperação posterior via API. |
No | True |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor. Consulte a seção Streaming abaixo para obter mais informações. |
No | False |
| enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - Entradas e saídas de texto - Saídas Estruturadas |
No | |
| └─ formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve produzir. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas: Ferramentas fornecidas pela OpenAI que estendem o Capacidades do modelo |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respostas - itens de entrada
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera uma resposta do modelo com a ID fornecida.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia (de caracteres) | O ID da resposta a ser recuperada. |
| include | consulta | No | matriz | Campos adicionais a incluir na resposta. Consulte o parâmetro include para a criação de resposta acima para obter mais informações. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Excluir resposta
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Exclui uma resposta do modelo com o ID fornecido.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia (de caracteres) | O ID da resposta a eliminar. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
Código de status: 404
Descrição: Não encontrado
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respostas - lista de itens de resposta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Retorna uma lista de itens de entrada para uma determinada resposta.
Parâmetros de URI
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto final | caminho | Yes | URL de string | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia (de caracteres) | O ID da resposta para obter os itens de entrada. |
| limit | consulta | No | número inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| order | consulta | No | cadeia (de caracteres) Valores possíveis: asc, desc |
A ordem em que os itens de entrada devem ser retornados. A predefinição é asc.- asc: Retorne os itens de entrada em ordem crescente.- desc: Retorne os itens de entrada em ordem decrescente. |
| after | consulta | No | cadeia (de caracteres) | Um ID de item para listar itens depois, usado na paginação. |
| before | consulta | No | cadeia (de caracteres) | Um ID de item usado para listar itens anteriores na paginação. |
Cabeçalho da solicitação
Use autenticação baseada em token ou chave de API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia (de caracteres) |
Exemplo: Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando a CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comTipo: oauth2 URL de autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeÂmbito de aplicação: https://cognitiveservices.azure.com/.default |
| api-key | True | cadeia (de caracteres) | Forneça a chave da API do Azure OpenAI aqui |
Responses
Código de status: 200
Descrição: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | error | No |
errorBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | cadeia (de caracteres) | No | ||
| mensagem | cadeia (de caracteres) | No |
erro
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Erro interno com detalhes adicionais. | No | |
| param | cadeia (de caracteres) | No | ||
| tipo | cadeia (de caracteres) | No |
innerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | No |
innerErrorCode
Códigos de erro para o objeto de erro interno.
| Property | Value |
|---|---|
| Description | Códigos de erro para o objeto de erro interno. |
| Type | cadeia (de caracteres) |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | dalleError | No |
dalleError
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Erro interno com detalhes adicionais. | No | |
| param | cadeia (de caracteres) | No | ||
| tipo | cadeia (de caracteres) | No |
dalleInnerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | No | |
| revised_prompt | cadeia (de caracteres) | O prompt que foi usado para gerar a imagem, se houve alguma revisão ao prompt. | No |
contentFilterCompletionTextSpan
Descreve um intervalo dentro do texto de conclusão gerado. O deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | número inteiro | Deslocamento do primeiro ponto de código UTF32 que é excluído da extensão. Este campo é sempre igual a completion_start_offset para vãos vazios. Este campo é sempre maior do que completion_start_offset para intervalos não vazios. | Yes | |
| completion_start_offset | número inteiro | Deslocamento do ponto de código UTF32 que inicia a extensão. | Yes |
contentFilterResultBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | cadeia (de caracteres) | No |
contentFilterDetectedResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| citation | objecto | No | ||
| └─ URL | cadeia (de caracteres) | No | ||
| └─ licença | cadeia (de caracteres) | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | No |
contentFilterIdResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | cadeia (de caracteres) | No |
contentFilterResultsBase
Informações sobre os resultados da filtragem de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | No | ||
| filtered | boolean | Yes |
promptFilterResult
Resultados da filtragem de conteúdo para um único prompt na solicitação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | No | |
| prompt_index | número inteiro | No |
promptFilterResults
A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.
Nenhuma propriedade definida para este componente.
dalleContentFilterResults
Informações sobre os resultados da filtragem de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. | No | 0 |
| logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de ponderação associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. | No | |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | número inteiro | O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens do prompt). Isto não é compatível com os modelos da série o1. | No | 4096 |
| metadados | objecto | Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. | No | |
| presence_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | No | 0 |
| stop | cadeia de caracteres ou matriz | Até 4 sequências onde a API para de gerar mais tokens. | No | |
| armazenar | boolean | Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | No | |
| fluxo | boolean | Se configurado, os deltas de mensagem parciais são enviados, tal como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente de dados à medida que ficam disponíveis, com o fluxo encerrado por uma mensagem data: [DONE]. |
No | False |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. | No |
createCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| best_of | número inteiro | Gera best_of completamentos do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade logarítmica por token). Os resultados não podem ser transmitidos.Quando usado com no , best_of controla o número de candidatos concluídos e n especifica quantos devem ser retornados.
best_of deve ser maior que n.Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Echo de volta o prompt, além da conclusão |
No | False |
| frequency_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
No | 0 |
| logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | número inteiro | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
No | None |
| max_tokens | número inteiro | O número máximo de tokens que pode ser gerado no decorrer da conclusão. A contagem de tokens do seu prompt mais max_tokens não pode exceder o comprimento de contexto do modelo. |
No | 16 |
| n | número inteiro | Quantas completações gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| avisar | cadeia de caracteres ou matriz | O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Yes | |
| seed | número inteiro | Se especificado, o nosso sistema faz o maior esforço possível para amostrar de forma determinística, de modo que solicitações repetidas com o mesmo seed e os mesmos parâmetros devem retornar o mesmo resultado.O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências onde a API para de gerar mais tokens. O texto devolvido não conterá a sequência de paragem. |
No | |
| fluxo | boolean | Se o progresso parcial deve ser transmitido. Se definido, os tokens são enviados como eventos somente de dados enviados pelo servidor à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código Python. |
No | False |
| suffix | cadeia (de caracteres) | O sufixo que vem após a conclusão do texto inserido. Este parâmetro só é suportado para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
No |
createCompletionResponse
Representa uma resposta de conclusão da API. Nota: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | A lista de opções de conclusão que o modelo gerou para o prompt de entrada. | Yes | |
| created | número inteiro | A marca temporal Unix (em segundos) de quando a conclusão foi criada. | Yes | |
| id | cadeia (de caracteres) | Um identificador exclusivo para a conclusão. | Yes | |
| modelo | cadeia (de caracteres) | O modelo utilizado para a conclusão. | Yes | |
| objecto | enumeração | O tipo de objeto, que será sempre "text_completion" Valores possíveis: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. | No | |
| system_fingerprint | cadeia (de caracteres) | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo. |
No | |
| utilização | completionUsage | Estatísticas de utilização do pedido de preenchimento. | No |
createChatCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objecto | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ formato | enumeração | Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16. Valores possíveis: wav, mp3, flac, opus, , pcm16 |
No | |
| └─ voz | enumeração | Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, novae shimmer.Valores possíveis: alloy, echo, fable, onyx, , nova, shimmer |
No | |
| data_sources | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional só é compatível com o Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
No | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objecto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de cada token no tokenizador correspondente) para um valor de viés correspondido de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia por modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. |
No | False |
| max_completion_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | número inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo de código Python. | Yes | |
| metadados | objecto | Tags e valores definidos pelo desenvolvedor usados para filtrar as finalizações no painel de conclusões armazenadas. | No | |
| modalities | ChatCompletionModalities | Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos são capazes de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:["text", "audio"] |
No | |
| n | número inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 para minimizar custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | No | True |
| predição | PredictionContent | Configuração para uma saída prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas com antecedência. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. | No | |
| presence_penalty | number | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
No | 0 |
| reasoning_effort | enumeração |
Apenas modelos O1 Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.Valores possíveis: low, medium, high |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.Definição para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido.Configurar { "type": "json_object" } ativa o modo JSON, o que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| seed | número inteiro | Este recurso está em versão Beta. Se especificado, o nosso sistema faz o maior esforço possível para amostrar de forma determinística, de modo que solicitações repetidas com o mesmo seed e os mesmos parâmetros devem retornar o mesmo resultado.O determinismo não é garantido, e deve-se consultar o parâmetro de resposta system_fingerprint para monitorizar as alterações no backend. |
No | |
| stop | cadeia de caracteres ou matriz | Até 4 sequências onde a API para de gerar mais tokens. |
No | |
| armazenar | boolean | Se deve ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelo. | No | |
| fluxo | boolean | Se configurado, os deltas de mensagem parciais são enviados, tal como no ChatGPT. Os tokens são enviados como eventos enviados pelo servidor somente dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código Python. |
No | False |
| stream_options | chatCompletionStreamOptions | Opções de resposta em streaming. Defina isso apenas quando definir stream: true. |
No | None |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas. |
No | |
| top_logprobs | número inteiro | Um número inteiro entre 0 e 20 que especifica o número de tokens mais prováveis de serem retornados em cada posição de token, cada um com uma probabilidade em log associada.
logprobs deve ser definido como true se este parâmetro for usado. |
No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
No | |
| user_security_context | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud. | No |
userSecurityContext
O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo de IA e o usuário final que interage com o aplicativo de IA. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender for Cloud.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| application_name | cadeia (de caracteres) | O nome do aplicativo. As informações pessoais sensíveis não devem ser incluídas neste campo. | No | |
| end_user_id | cadeia (de caracteres) | Esse identificador é a ID do objeto de usuário do Microsoft Entra ID (anteriormente Azure Ative Directory) usada para autenticar usuários finais no aplicativo de IA generativa. As informações pessoais sensíveis não devem ser incluídas neste campo. | No | |
| end_user_tenant_id | cadeia (de caracteres) | O ID de locatário do Microsoft 365 ao qual o usuário final pertence. É necessário quando o aplicativo de IA generativa é multilocatário. | No | |
| source_ip | cadeia (de caracteres) | Captura o endereço IP do cliente original, aceitando os formatos IPv4 e IPv6. | No |
chatCompletionFunctions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia (de caracteres) | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No |
chatCompletionFunctionCallOption
Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a ser chamada. | Yes |
chatCompletionFunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência do esquema JSON para obter documentação sobre o formato.
Nenhuma propriedade definida para este componente.
chatCompletionRequestMessage
Este componente pode ser um dos seguintes:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário.
Com modelos o1 e mais recentes, developer as mensagens substituem as mensagens anteriores system .
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do desenvolvedor. | Yes | |
| name | cadeia (de caracteres) | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso developer.Valores possíveis: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Yes | |
| name | cadeia (de caracteres) | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso system.Valores possíveis: system |
Yes |
chatCompletionRequestUserMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Yes | |
| name | cadeia (de caracteres) | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso user.Valores possíveis: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado. |
No | |
| function_call | objecto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No | |
| └─ argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | No | |
| └─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | No | |
| name | cadeia (de caracteres) | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | No | |
| refusal | cadeia (de caracteres) | A mensagem de recusa por parte do assistente. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso assistant.Valores possíveis: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
chatCompletionRequestToolMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Yes | |
| função | enumeração | O papel do autor das mensagens, neste caso tool.Valores possíveis: tool |
Yes | |
| tool_call_id | cadeia (de caracteres) | Chamada de ferramenta à qual esta mensagem está respondendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem de função. | Yes | |
| name | cadeia (de caracteres) | O nome da função a ser chamada. | Yes | |
| função | enumeração | O papel do autor das mensagens, neste caso function.Valores possíveis: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestSystemMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Este componente pode ser um dos seguintes:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | O conteúdo do texto. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio | objecto | Yes | ||
| └─ dados | cadeia (de caracteres) | Dados de áudio codificados em Base64. | No | |
| └─ formato | enumeração | O formato dos dados de áudio codificados. Atualmente suporta "wav" e "mp3". Valores possíveis: wav, mp3 |
No | |
| tipo | enumeração | O tipo da parte de conteúdo. Sempre input_audio.Valores possíveis: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_url | objecto | Yes | ||
| └─ detalhe | enumeração | Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. Valores possíveis: auto, low, high |
No | |
| └─ URL | cadeia (de caracteres) | Um URL da imagem ou os dados de imagem codificados em base64. | No | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Yes | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: refusal |
Yes |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
###Discriminator para "azureChatExtensionConfiguration"
Este componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
| Property | Value |
|---|---|
| Description | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
| Type | cadeia (de caracteres) |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions (opções de autenticação) | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | No | ||
| ponto final | cadeia (de caracteres) | O caminho absoluto do endpoint para o recurso Azure Search a ser utilizado. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. | No | |
| filtro | cadeia (de caracteres) | Filtro de pesquisa. | No | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia (de caracteres) | O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. | Yes | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | No | |
| query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | No | |
| semantic_configuration | cadeia (de caracteres) | A configuração semântica adicional para a consulta. | No | |
| strictness | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| image_vector_fields | matriz | Os nomes dos campos que representam dados vetoriais de imagem. | No | |
| title_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | No | |
| url_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | No |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
| Property | Value |
|---|---|
| Description | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. |
| Type | cadeia (de caracteres) |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão. | Yes | |
| container_name | cadeia (de caracteres) | O nome do contêiner de recursos do Azure Cosmos DB. | Yes | |
| database_name | cadeia (de caracteres) | O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia (de caracteres) | O nome do índice vCore do MongoDB para usar com o Azure Cosmos DB. | Yes | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | No | |
| strictness | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| title_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | No | |
| url_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Yes |
elasticsearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| autenticação | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | No | ||
| ponto final | cadeia (de caracteres) | O ponto de extremidade do Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. | No | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia (de caracteres) | O nome do índice do Elasticsearch®. | Yes | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | No | |
| query_type | elasticsearchQueryType | O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | No | |
| strictness | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
elasticsearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| title_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | No | |
| url_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | No |
elasticsearchQueryType
O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
| Property | Value |
|---|---|
| Description | O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. |
| Type | cadeia (de caracteres) |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| app_name | cadeia (de caracteres) | O nome do aplicativo Mongo DB. | Yes | |
| autenticação | onYourDataUsernameAndPasswordAuthenticationOptions | As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha. | Yes | |
| collection_name | cadeia (de caracteres) | O nome da Coleção Mongo DB. | Yes | |
| database_name | cadeia (de caracteres) | O nome do banco de dados Mongo DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| ponto final | cadeia (de caracteres) | O nome do ponto de extremidade do cluster Mongo DB. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia (de caracteres) | O nome do índice Mongo DB. | Yes | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | No | |
| strictness | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
mongoDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| title_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | No | |
| url_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Yes |
pineconeChatExtensionConfiguration
Uma representação específica de opções configuráveis para Pinecone ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone. | No | |
| tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | No | False |
| autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em um nome de implantação de modelo interno de incorporação no mesmo recurso do Azure OpenAI. | Yes | |
| ambiente | cadeia (de caracteres) | O nome do ambiente de Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. | Yes | |
| in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. |
No | |
| index_name | cadeia (de caracteres) | O nome do índice do banco de dados Pinecone. | Yes | |
| max_search_queries | número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | No | |
| strictness | número inteiro | O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | número inteiro | O número superior configurado de documentos a serem apresentados para a consulta configurada. | No |
pineconeFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia (de caracteres) | O padrão separador que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como um caminho de arquivo. | No | |
| title_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como título. | No | |
| url_field | cadeia (de caracteres) | O nome do campo de índice a ser usado como URL. | No |
onYourDataAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data.
Discriminador para onYourDataAuthenticationOptions
Este componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes |
onYourDataContextProperty
A propriedade context.
| Property | Value |
|---|---|
| Description | A propriedade context. |
| Type | cadeia (de caracteres) |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Os tipos de autenticação suportados com o Azure OpenAI On Your Data.
| Property | Value |
|---|---|
| Description | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. |
| Type | cadeia (de caracteres) |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia (de caracteres) | A chave de API a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| connection_string | cadeia (de caracteres) | A cadeia de conexão a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave Elasticsearch e um par de ID de chave.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia (de caracteres) | A chave Elasticsearch a ser usada para autenticação. | No | |
| key_id | cadeia (de caracteres) | O ID da chave do Elasticsearch a ser usado para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API codificada do Elasticsearch.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | cadeia (de caracteres) | A chave de API codificada do Elasticsearch a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes |
onYourDataAccessTokenAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar o token de acesso.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| access_token | cadeia (de caracteres) | O token de acesso a ser usado para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída ao sistema.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | cadeia (de caracteres) | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| palavra-passe | cadeia (de caracteres) | A senha. para usar para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Yes | |
| nome de utilizador | cadeia (de caracteres) | O nome de usuário a ser usado para autenticação. | No |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para o Azure OpenAI On Your Data com pesquisa vetorial.
Este componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Yes |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.
| Property | Value |
|---|---|
| Description | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
| Type | cadeia (de caracteres) |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, com base numa chamada pública de endpoint do Azure OpenAI para embeddings.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | número inteiro | O número de dimensões que as incorporações devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. |
No | |
| ponto final | cadeia (de caracteres) | Especifica a URL do ponto de extremidade do recurso a partir da qual as incorporações devem ser recuperadas. Deve ser no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta api-version não é permitido. |
No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Yes |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, utilizada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia num nome de implementação de um modelo de embeddings interno no mesmo recurso Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | cadeia (de caracteres) | Especifica o nome da implantação do modelo a utilizar para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. | No | |
| dimensions | número inteiro | O número de dimensões que as incorporações devem ter. Apenas suportado em modelos text-embedding-3 e posteriores. |
No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Yes |
onYourDataIntegratedVectorizationSource
Representa o vetorizador integrado definido no recurso de pesquisa.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Yes |
onYourDataModelIdVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em uma ID de modelo de serviço de pesquisa. Atualmente suportado apenas pelo Elasticsearch®.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| model_id | cadeia (de caracteres) | Especifica o ID do modelo a ser usado para vetorização. Este ID de modelo deve ser definido no serviço de pesquisa. | No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. | Yes |
azureChatExtensionsMessageContext
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | matriz | Todos os documentos recuperados. | No | |
| citations | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | No | |
| intenção | cadeia (de caracteres) | A intenção detetada a partir do histórico de conversas, usada para avançar para a próxima rodada, mantendo o contexto. | No |
citation
informações de citação para uma mensagem de resposta de conclusão do chat.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | cadeia (de caracteres) | O ID do segmento da citação. | No | |
| conteúdo | cadeia (de caracteres) | O conteúdo da citação. | Yes | |
| filepath | cadeia (de caracteres) | O caminho do arquivo da citação. | No | |
| rerank_score | number | A pontuação de reclassificação do documento recuperado. | No | |
| title | cadeia (de caracteres) | O título da citação. | No | |
| url | cadeia (de caracteres) | O URL da citação. | No |
retrievedDocument
O documento recuperado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | cadeia (de caracteres) | O ID do segmento da citação. | No | |
| conteúdo | cadeia (de caracteres) | O conteúdo da citação. | Yes | |
| data_source_index | número inteiro | O índice da fonte de dados. | No | |
| filepath | cadeia (de caracteres) | O caminho do arquivo da citação. | No | |
| filter_reason | filterReason | O motivo de filtragem do documento recuperado. | No | |
| original_search_score | number | A pontuação de pesquisa original do documento recuperado. | No | |
| rerank_score | number | A pontuação de reclassificação do documento recuperado. | No | |
| search_queries | matriz | As consultas de pesquisa usadas para recuperar o documento. | No | |
| title | cadeia (de caracteres) | O título da citação. | No | |
| url | cadeia (de caracteres) | O URL da citação. | No |
filterReason
O motivo de filtragem do documento recuperado.
| Property | Value |
|---|---|
| Description | O motivo de filtragem do documento recuperado. |
| Type | cadeia (de caracteres) |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objecto | A função que o modelo chamou. | Yes | |
| └─ argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | No | |
| └─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | No | |
| id | cadeia (de caracteres) | O identificador da chamada da ferramenta. | Yes | |
| tipo | toolCallType | O tipo de chamada de ferramenta, neste caso function. |
Yes |
toolCallType
O tipo de chamada de ferramenta, neste caso function.
| Property | Value |
|---|---|
| Description | O tipo de chamada de ferramenta, neste caso function. |
| Type | cadeia (de caracteres) |
| Values | function |
chatCompletionRequestMessageTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | No | |
| tool_call_id | cadeia (de caracteres) | Chamada de ferramenta à qual esta mensagem está respondendo. | No |
chatCompletionRequestMessageFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | No | |
| name | cadeia (de caracteres) | O conteúdo da mensagem. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso function.Valores possíveis: function |
No |
createChatCompletionResponse
Representa uma resposta de conclusão do chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Yes | |
| created | número inteiro | O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. | Yes | |
| id | cadeia (de caracteres) | Um identificador exclusivo para a conclusão do chat. | Yes | |
| modelo | cadeia (de caracteres) | O modelo usado para a conclusão do chat. | Yes | |
| objecto | enumeração | O tipo de objeto, que é sempre chat.completion.Valores possíveis: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. | No | |
| system_fingerprint | cadeia (de caracteres) | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo. |
No | |
| utilização | completionUsage | Estatísticas de utilização do pedido de preenchimento. | No |
createChatCompletionStreamResponse
Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Yes | |
| created | número inteiro | O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data/hora. | Yes | |
| id | cadeia (de caracteres) | Um identificador exclusivo para a conclusão do chat. Cada pedaço tem o mesmo ID. | Yes | |
| modelo | cadeia (de caracteres) | O modelo para gerar a conclusão. | Yes | |
| objecto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk.Valores possíveis: chat.completion.chunk |
Yes | |
| system_fingerprint | cadeia (de caracteres) | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro seed request para entender quando alterações no back-end foram feitas que podem afetar o determinismo. |
No |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem de bloco. | No | |
| function_call | objecto | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No | |
| └─ argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | No | |
| └─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | No | |
| refusal | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | No | |
| função | enumeração | O papel do autor desta mensagem. Valores possíveis: system, user, assistant, tool |
No | |
| tool_calls | matriz | No |
chatCompletionMessageToolCallChunk
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objecto | No | ||
| └─ argumentos | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | No | |
| └─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | No | |
| id | cadeia (de caracteres) | O identificador da chamada da ferramenta. | No | |
| indexar | número inteiro | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: function |
No |
chatCompletionStreamOptions
Opções de resposta em streaming. Defina isso apenas quando definir stream: true.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se definido, um bloco adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de uso de token para toda a solicitação, e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo. |
No |
chatCompletionChoiceLogProbs
Registre informações de probabilidade para a escolha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Uma lista de tokens de conteúdo de mensagem com informações de probabilidade logarítmica. | Yes | |
| refusal | matriz | Uma lista de tokens de recusa de mensagens com informações de probabilidade em logarítmico. | No |
chatCompletionTokenLogprob
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bytes | matriz | Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. |
Yes | |
| logprob | number | A probabilidade logarítmica deste token. | Yes | |
| token | cadeia (de caracteres) | O token. | Yes | |
| top_logprobs | matriz | Lista dos tokens mais prováveis e o log de probabilidade, nesta posição específica de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. |
Yes |
chatCompletionResponseMessage
Uma mensagem de conclusão do chat gerada pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objecto | Se a modalidade de saída de áudio for solicitada, este objeto contém dados sobre a resposta de áudio do modelo. | No | |
| └─ dados | cadeia (de caracteres) | Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação. |
No | |
| └─ expira_em | número inteiro | O carimbo de data/hora Unix (em segundos) para quando esta resposta de áudio não estará mais acessível no servidor para uso em conversas de vários turnos. |
No | |
| └─ ID | cadeia (de caracteres) | Identificador exclusivo para esta resposta de áudio. | No | |
| └─ Transcrição | cadeia (de caracteres) | Transcrição do áudio gerado pelo modelo. | No | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Yes | |
| contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente. | No | |
| function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
No | |
| refusal | cadeia (de caracteres) | A mensagem de recusa gerada pelo modelo. | Yes | |
| função | chatCompletionResponseMessageRole | O papel do autor da mensagem de resposta. | Yes | |
| tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
chatCompletionResponseMessageRole
O papel do autor da mensagem de resposta.
| Property | Value |
|---|---|
| Description | O papel do autor da mensagem de resposta. |
| Type | cadeia (de caracteres) |
| Values | assistant |
chatCompletionToolChoiceOption
Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes.
Este componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objecto | Yes | ||
| └─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | No | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: function |
Yes |
ParallelToolCalls
Se a chamada de função paralela deve ser ativada durante o uso da ferramenta.
Nenhuma propriedade definida para este componente.
PredictionContent
Conteúdo de saída estático previsto, como o conteúdo de um arquivo de texto que está sendo regenerado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz | O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo pode ser retornada muito mais rapidamente. | Yes | |
| tipo | enumeração | O tipo de conteúdo previsto que você deseja fornecer. Este tipo é atualmente sempre content.Valores possíveis: content |
Yes |
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para este componente.
ChatCompletionModalities
Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos são capazes de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para este componente.
chatCompletionFunctionCall
Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia (de caracteres) | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Yes | |
| name | cadeia (de caracteres) | O nome da função a ser chamada. | Yes |
completionUsage
Estatísticas de utilização do pedido de preenchimento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | número inteiro | Número de tokens na conclusão gerada. | Yes | |
| completion_tokens_details | objecto | Distribuição dos tokens usados numa conclusão. | No | |
| └─ tokens_de_previsão_aceites | número inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que apareceram na conclusão. | No | |
| └─ fichas_de_áudio | número inteiro | Tokens de entrada de áudio gerados pelo modelo. | No | |
| └─ tokens de raciocínio | número inteiro | Tokens gerados pelo modelo de raciocínio. | No | |
| └─ tokens_de_previsão_rejeitados | número inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na conclusão. No entanto, como os tokens de raciocínio, esses tokens ainda são contados nos tokens de conclusão total para fins de faturamento, saída e limites de janela de contexto. | No | |
| prompt_tokens | número inteiro | Número de tokens no prompt. | Yes | |
| prompt_tokens_details | objecto | Detalhes dos tokens de prompt. | No | |
| └─ fichas_de_áudio | número inteiro | Tokens de entrada de áudio presentes no prompt. | No | |
| └─ tokens em cache | número inteiro | O número de tokens de prompt armazenados em cache. | No | |
| total_tokens | número inteiro | Número total de tokens usados na solicitação (prompt + conclusão). | Yes |
chatCompletionTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | FunctionObject | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: function |
Yes |
FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para este componente.
FunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia (de caracteres) | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON.
Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No | |
| strict | boolean | Se a adesão estrita ao esquema deve ser ativada ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. |
No | False |
ResponseFormatText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: textValores possíveis: text |
Yes |
ResponseFormatJsonObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_objectValores possíveis: json_object |
Yes |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para este componente.
ResponseFormatJsonSchema
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| json_schema | objecto | Yes | ||
| └─ Descrição | cadeia (de caracteres) | Uma descrição do propósito do formato de resposta, utilizada pelo modelo para determinar como responder nesse formato. | No | |
| └─ nome | cadeia (de caracteres) | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | No | |
| └─ esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. | No | |
| └─ rigoroso | boolean | Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schemaValores possíveis: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | cadeia (de caracteres) | No | ||
| indexar | número inteiro | No |
createTranslationRequest
Pedido de tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O arquivo de áudio a ser traduzido. | Yes | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | No | 0 |
audioResponse
Resposta de tradução ou transcrição quando response_format foi json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | Texto traduzido ou transcrito. | Yes |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| linguagem | cadeia (de caracteres) | Language. | No | |
| segments | matriz | No | ||
| tarefa | cadeia (de caracteres) | Tipo de tarefa de áudio. | No | |
| enviar SMS | cadeia (de caracteres) | Texto traduzido ou transcrito. | Yes | |
| words | matriz | No |
audioResponseFormat
Define o formato da saída.
| Property | Value |
|---|---|
| Description | Define o formato da saída. |
| Type | cadeia (de caracteres) |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Pedido de transcrição.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ficheiro | cadeia (de caracteres) | O objeto do arquivo de áudio a ser transcrito. | Yes | |
| linguagem | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhora a precisão e a latência. | No | |
| avisar | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição.
response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word, ou segment. Nota: Não há latência adicional nos carimbos de data/hora para segmentos, mas a geração de carimbos de data/hora para palavras resulta em latência adicional. |
No | ['segment'] |
audioSegment
Segmento de transcrição ou tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilidade média de log. | No | |
| compression_ratio | number | Taxa de compressão. | No | |
| end | number | Compensação final do segmento. | No | |
| id | número inteiro | Identificador de segmento. | No | |
| no_speech_prob | number | Probabilidade de 'não falar'. | No | |
| seek | number | Deslocamento do segmento. | No | |
| start | number | Compensação de início de segmento. | No | |
| temperature | number | Temperature. | No | |
| enviar SMS | cadeia (de caracteres) | Segmentar o texto. | No | |
| tokens | matriz | Fichas do texto. | No |
audioWord
Transcrição ou tradução de palavras.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end | number | Compensação final do Word. | No | |
| start | number | Deslocamento de início do Word. | No | |
| word | cadeia (de caracteres) | Word | No |
createSpeechRequest
Pedido de voz.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados introduzidos | cadeia (de caracteres) | O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Yes | |
| response_format | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, , wav, pcm |
No | |
| speed | number | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0.
1.0 é o padrão. |
No | 1.0 |
| voice | enumeração | A voz a ser usada para síntese de fala. Valores possíveis: alloy, echo, fable, onyx, , nova, shimmer |
Yes |
imageQuality
A qualidade da imagem que será gerada.
| Property | Value |
|---|---|
| Description | A qualidade da imagem que será gerada. |
| Type | cadeia (de caracteres) |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
O formato em que as imagens geradas são retornadas.
| Property | Value |
|---|---|
| Description | O formato em que as imagens geradas são retornadas. |
| Type | cadeia (de caracteres) |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
O formato de arquivo no qual as imagens geradas são retornadas. Só é suportado para modelos de série.
| Property | Value |
|---|---|
| Description | O formato de arquivo no qual as imagens geradas são retornadas. Apenas disponível para modelos da série gpt-image-1. |
| Type | cadeia (de caracteres) |
| Default | png |
| Values | pngjpeg |
imageSize
O tamanho das imagens geradas.
| Property | Value |
|---|---|
| Description | O tamanho das imagens geradas. |
| Type | cadeia (de caracteres) |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
O estilo das imagens geradas. Apenas suportado para dall-e-3.
| Property | Value |
|---|---|
| Description | O estilo das imagens geradas. Apenas suportado para dall-e-3. |
| Type | cadeia (de caracteres) |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1.
| Property | Value |
|---|---|
| Description | Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1. |
| Type | cadeia (de caracteres) |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | imageBackground | Permite definir a transparência para o fundo da(s) imagem(ns) gerada(s). Este parâmetro é apenas suportado para modelos da série gpt-image-1. | No | auto |
| n | número inteiro | O número de imagens a gerar. Para DALL-E-3, é suportado apenas n=1. | No | 1 |
| output_compression | número inteiro | O nível de compressão (0-100%) para as imagens geradas. Este parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. | No | 100 |
| output_format | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Apenas disponível para modelos da série gpt-image-1. | No | png |
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres para modelos da série gpt-image-1 e 4000 caracteres para dall-e-3 | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são retornadas. Apenas suportado para dall-e-3. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| style | imageStyle | O estilo das imagens geradas. Apenas suportado para dall-e-3. | No | vivid |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | No |
imageEditsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | cadeia de caracteres ou matriz | A(s) imagem(ns) a editar. Deve ser um arquivo de imagem suportado ou uma matriz de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 25MB. | Yes | |
| máscara | cadeia (de caracteres) | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indicam onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um ficheiro PNG válido, com menos de 4MB, e ter as mesmas dimensões que a imagem. | No | |
| n | número inteiro | O número de imagens a gerar. | No | 1 |
| avisar | cadeia (de caracteres) | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 32000 caracteres. | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| utilizador | cadeia (de caracteres) | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | No |
generateImagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created | número inteiro | O carimbo de data/hora Unix quando a operação foi criada. | Yes | |
| dados | matriz | Os dados de resultado da operação, se bem-sucedida | Yes | |
| utilização | imageGenerationsUsage | Representa detalhes de uso de token para solicitações de geração de imagem. Apenas para modelos da série GPT-image-1. | No |
imageResult
A URL da imagem ou a imagem codificada, se obtida com sucesso, e um erro caso contrário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| b64_json | cadeia (de caracteres) | A imagem codificada base64 | No | |
| content_filter_results | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | No | |
| prompt_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | No | |
| revised_prompt | cadeia (de caracteres) | O prompt que foi usado para gerar a imagem, se houve alguma revisão ao prompt. | No | |
| url | cadeia (de caracteres) | O url da imagem. | No |
imageGenerationsUsage
Representa detalhes de uso de token para solicitações de geração de imagem. Apenas para modelos da série GPT-image-1.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | número inteiro | O número de tokens de entrada. | No | |
| input_tokens_details | objecto | Um detalhamento detalhado dos tokens de entrada. | No | |
| └─ image_tokens | número inteiro | O número de tokens de imagem. | No | |
| └─ text_tokens | número inteiro | O número de tokens de texto. | No | |
| output_tokens | número inteiro | O número de tokens de saída. | No | |
| total_tokens | número inteiro | O número total de tokens usados. | No |
linha
Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| spans | matriz | Uma matriz de extensões que representam objetos detetados e suas informações de caixa delimitadora. | Yes | |
| enviar SMS | cadeia (de caracteres) | Yes |
span
Um objeto span que representa um objeto detetado e suas informações de caixa delimitadora.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| length | número inteiro | O comprimento da extensão em caracteres, medido em pontos de código Unicode. | Yes | |
| offset | número inteiro | O deslocamento de caracteres dentro do texto onde a extensão começa. Esse deslocamento é definido como a posição do primeiro caractere da extensão, contando desde o início do texto como pontos de código Unicode. | Yes | |
| polygon | matriz | Uma matriz de objetos que representa pontos no polígono que encerra o objeto detetado. | Yes | |
| enviar SMS | cadeia (de caracteres) | O conteúdo de texto da extensão que representa o objeto detetado. | Yes |
runCompletionUsage
Estatísticas de utilização relacionadas com a execução. Este valor será null se a execução não estiver em um estado terminal (ou seja in_progress, , queued, etc.).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | número inteiro | Número de tokens de conclusão usados ao longo da execução. | Yes | |
| prompt_tokens | número inteiro | Número de tokens de prompt usados ao longo da execução. | Yes | |
| total_tokens | número inteiro | Número total de tokens usados (prompt + conclusão). | Yes |
runStepCompletionUsage
Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | número inteiro | Número de tokens de conclusão usados ao longo da etapa de execução. | Yes | |
| prompt_tokens | número inteiro | Número de tokens de prompt usados ao longo da etapa de execução. | Yes | |
| total_tokens | número inteiro | Número total de tokens usados (prompt + conclusão). | Yes |
assistantsApiResponseFormatOption
Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.
Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.
Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.
Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Este componente pode ser um dos seguintes:
assistantsApiResponseFormat
Um objeto que descreve a saída esperada do modelo. Se json_object apenas function o tipo tools tiver permissão para ser passado para a Execução. Se text o modelo pode retornar texto ou qualquer valor necessário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia (de caracteres) | Deve ser um dos text ou json_object. |
No | enviar SMS |
tipo Enum: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| enviar SMS | |
| json_object |
assistantObject
Representa um assistant que pode chamar o modelo e usar ferramentas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o assistente foi criado. | Yes | |
| description | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Yes | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| instructions | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Yes | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Yes | |
| modelo | cadeia (de caracteres) | ID do modelo a utilizar. | Yes | |
| name | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Yes | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, file_search, ou function. |
Yes | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
objeto Enum: AssistantObjectType
| Value | Description |
|---|---|
| assistente | O tipo de objeto, que é sempre assistente |
createAssistantRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | Yes | ||
| name | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O armazenamento de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| └─ armazenamento_de_vetores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
modifyAssistantRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia (de caracteres) | As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | No | ||
| name | cadeia (de caracteres) | O nome do assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_resources | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
deleteAssistantResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
objeto Enum: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia (de caracteres) | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
assistantToolsCode
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia (de caracteres) | O tipo de ferramenta que está sendo definido: code_interpreter |
Yes |
tipo Enum: assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objecto | Substitui a ferramenta de pesquisa de arquivos. | No | |
| └─ número_máx_resultados | número inteiro | O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Este número deve situar-se entre 1 e 50, inclusive. Observe que a ferramenta de pesquisa de arquivos pode produzir menos do que max_num_results os resultados. |
No | |
| tipo | cadeia (de caracteres) | O tipo de ferramenta que está sendo definido: file_search |
Yes |
tipo Enum: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia (de caracteres) | O tipo de ferramenta que está sendo definido: file_search |
Yes |
tipo Enum: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objecto | A definição da função. | Yes | |
| └─ Descrição | cadeia (de caracteres) | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| └─ nome | cadeia (de caracteres) | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | No | |
| └─ parâmetros | chatCompletionFunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência do esquema JSON para obter documentação sobre o formato. | No | |
| tipo | cadeia (de caracteres) | O tipo de ferramenta que está sendo definido: function |
Yes |
tipo Enum: assistantToolsFunction
| Value | Description |
|---|---|
| função |
truncationObject
Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| last_messages | número inteiro | O número de mensagens mais recentes do thread ao construir o contexto para a execução. | No | |
| tipo | cadeia (de caracteres) | A estratégia de truncamento a ser usada para o thread. A predefinição é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto, as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo, max_prompt_tokens. |
Yes |
type Enum: Tipo de Truncamento
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Este componente pode ser um dos seguintes:
assistantsNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objecto | No | ||
| └─ nome | cadeia (de caracteres) | O nome da função a ser chamada. | No | |
| tipo | cadeia (de caracteres) | O tipo da ferramenta. Se type for function, o nome da função deve ser definido |
Yes |
tipo Enum: AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| função | |
| code_interpreter | |
| file_search |
runObject
Representa uma execução executada em um threads.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | O ID do assistente usado para a execução desta execução. | Yes | |
| cancelled_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi cancelada. | Yes | |
| completed_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída. | Yes | |
| created_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi criada. | Yes | |
| expires_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução expirará. | Yes | |
| failed_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução falhou. | Yes | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| incomplete_details | objecto | Detalhes sobre o motivo pelo qual a execução está incompleta. Será null se a execução não estiver incompleta. |
Yes | |
| └─ Justificação | cadeia (de caracteres) | A razão pela qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. | No | |
| instructions | cadeia (de caracteres) | As instruções que o assistente usou para esta execução. | Yes | |
| last_error | objecto | O último erro associado a esta execução. Será null se não houver erros. |
Yes | |
| └─ código | cadeia (de caracteres) | Um dos server_error ou rate_limit_exceeded. |
No | |
| └─ mensagem | cadeia (de caracteres) | Uma descrição do erro legível por humanos. | No | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão especificado para ter sido usado ao longo da execução. |
Yes | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt especificado para ter sido usado ao longo da execução. |
Yes | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Yes | |
| modelo | cadeia (de caracteres) | O modelo que o assistente usou para esta execução. | Yes | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | No | True |
| required_action | objecto | Detalhes sobre a ação necessária para continuar a execução. Será null se nenhuma ação for necessária. |
Yes | |
| submeter_saídas_de_ferramenta | objecto | Detalhes sobre as saídas da ferramenta necessárias para que esta execução continue. | No | |
| └─ tool_calls | matriz | Uma lista das chamadas de ferramentas relevantes. | No | |
| └─ tipo | enumeração | Por enquanto, isso é sempre submit_tool_outputs.Valores possíveis: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Yes | |
| started_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada. | Yes | |
| estado | cadeia (de caracteres) | O status da execução, que pode ser , , , , queued, in_progressrequires_action, cancelling, ou cancelled. failedcompletedexpired |
Yes | |
| temperature | number | A temperatura de amostragem utilizada para este ensaio. Se não estiver definido, o padrão será 1. | No | |
| thread_id | cadeia (de caracteres) | A ID dos threads que foram executados como parte desta execução. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Yes | |
| tools | matriz | A lista de ferramentas que o assistente usou para esta execução. | Yes | [] |
| top_p | number | O valor de amostragem do núcleo utilizado para esta corrida. Se não estiver definido, o padrão será 1. | No | |
| truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Yes | |
| utilização | runCompletionUsage | Estatísticas de utilização relacionadas com a execução. Este valor será null se a execução não estiver em um estado terminal (ou seja in_progress, , queued, etc.). |
Yes |
objeto Enum: runObjectType
| Value | Description |
|---|---|
| thread.run | O tipo de objeto run que é sempre thread.run |
status Enum: EstadoDoObjetoEmExecução
| Value | Description |
|---|---|
| queued | O estado em fila |
| in_progress | O Estado in_progress |
| requires_action | O Estado required_action |
| cancelling | O estado de cancelamento |
| cancelled | O estado cancelado |
| failed | O estado falhado |
| completed | O estado concluído |
| expired | O estado expirado |
createRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | cadeia (de caracteres) | Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | No | |
| additional_messages | matriz | Adiciona mensagens adicionais ao thread antes de criar a execução. | No | |
| assistant_id | cadeia (de caracteres) | A ID do assistente a ser usado para executar essa execução. | Yes | |
| instructions | cadeia (de caracteres) | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço máximo para usar apenas o número de tokens de conclusão especificados ao longo de várias etapas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificados, através de várias iterações da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| fluxo | boolean | Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
| truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
listRunsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia (de caracteres) | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
modifyRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No |
submitToolOutputsRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fluxo | boolean | Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| tool_outputs | matriz | Uma lista de ferramentas para as quais os resultados estão sendo enviados. | Yes |
runToolCallObject
Objetos de chamada de ferramenta
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objecto | A definição da função. | Yes | |
| └─ argumentos | cadeia (de caracteres) | Os argumentos que o modelo espera que você passe para a função. | No | |
| └─ nome | cadeia (de caracteres) | O nome da função. | No | |
| id | cadeia (de caracteres) | O identificador da chamada da ferramenta. Esse ID deve ser referenciado quando você envia as saídas da ferramenta usando as saídas da ferramenta de envio para executar o endpointendpoint. | Yes | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function. |
Yes |
tipo Enum: RunToolCallObjectType
| Value | Description |
|---|---|
| função |
createThreadAndRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | A ID do assistente a ser usado para executar essa execução. | Yes | |
| instructions | cadeia (de caracteres) | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | No | |
| max_completion_tokens | número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução faz um esforço máximo para usar apenas o número de tokens de conclusão especificados ao longo de várias etapas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| max_prompt_tokens | número inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução faz o melhor esforço para usar apenas o número de tokens de prompt especificados, através de várias iterações da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para obter mais informações. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | A ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.Definir { "type": "json_schema", "json_schema": {...} } para ativar saídas estruturadas que garantem que o modelo corresponde ao esquema JSON fornecido. Saiba mais no guia Saídas estruturadas.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
No | |
| fluxo | boolean | Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
No | |
| stream_options | chatCompletionStreamOptions | Opções de resposta em streaming. Defina isso apenas quando definir stream: true. |
No | None |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
No | 1 |
| conversa | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
No | |
| tool_resources | objecto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
No | 1 |
| truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
threadObject
Representa um thread que contém mensagens.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando o thread foi criado. | Yes | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Yes | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread. |
Yes | |
| tool_resources | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Yes | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
No |
objeto Enum: ThreadObjectType
| Value | Description |
|---|---|
| conversa | O tipo de objeto de thread que é sempre thread |
createThreadRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| messages | matriz | Uma lista de mensagens para iniciar o thread. | No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| tool_resources | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
No | |
| └─ armazenamento_de_vetores | matriz | Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
No |
modifyThreadRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| tool_resources | objecto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
No | |
| └─ interpretador_de_codigo | objecto | No | ||
| └─ identificadores_de_ficheiro | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
No | [] |
| └─ pesquisa_arquivo | objecto | No | ||
| └─ vetor_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
No |
deleteThreadResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
objeto Enum: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | O estado do objeto de resposta de thread de exclusão que é thread.deleted |
listThreadsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia (de caracteres) | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
messageObject
Representa uma mensagem dentro de um thread.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | Se aplicável, o ID do assistente autor desta mensagem. | Yes | |
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais foram adicionados. | Yes | |
| completed_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi concluída. | Yes | |
| conteúdo | matriz | O conteúdo da mensagem em matriz de texto e/ou imagens. | Yes | |
| created_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi criada. | Yes | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| incomplete_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi marcada como incompleta. | Yes | |
| incomplete_details | objecto | Em uma mensagem incompleta, detalhes sobre por que a mensagem está incompleta. | Yes | |
| └─ Justificação | cadeia (de caracteres) | O motivo pelo qual a mensagem está incompleta. | No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Yes | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.message. |
Yes | |
| função | cadeia (de caracteres) | A entidade que produziu a mensagem. Um dos user ou assistant. |
Yes | |
| run_id | cadeia (de caracteres) | Se aplicável, a ID da execução associada à criação desta mensagem. | Yes | |
| estado | cadeia (de caracteres) | O status da mensagem, que pode ser , in_progressincompleteou completed. |
Yes | |
| thread_id | cadeia (de caracteres) | O ID de threads ao qual esta mensagem pertence. | Yes |
objeto Enum: MessageObjectType
| Value | Description |
|---|---|
| thread.message | O tipo de objeto de mensagem que é thread.message |
Enumerador de status: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
função Enum: MessageObjectRole
| Value | Description |
|---|---|
| utilizador | |
| assistente |
messageDeltaObject
Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | objecto | O delta que contém os campos que foram alterados na mensagem. | Yes | |
| └─ conteúdo | matriz | O conteúdo da mensagem em matriz de texto e/ou imagens. | No | |
| └─ função | cadeia (de caracteres) | A entidade que produziu a mensagem. Um dos user ou assistant. |
No | |
| id | cadeia (de caracteres) | O identificador da mensagem, que pode ser referenciado em pontos de extremidade da API. | Yes | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.message.delta. |
Yes |
objeto Enum: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. | No | |
| conteúdo | cadeia (de caracteres) | O conteúdo da mensagem. | Yes | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| função | cadeia (de caracteres) | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user: Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant: Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Yes |
Enum da função: CreateMessageRequestRole
| Value | Description |
|---|---|
| utilizador | |
| assistente |
modifyMessageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No |
deleteMessageResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
objeto Enum: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | O estado do objeto de resposta de mensagem de exclusão |
listMessagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia (de caracteres) | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
messageContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_file | objecto | Yes | ||
| └─ id_do_arquivo | cadeia (de caracteres) | O ID de arquivo da imagem no conteúdo da mensagem. | No | |
| tipo | cadeia (de caracteres) | Sempre image_file. |
Yes |
tipo Enum: MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | O tipo de arquivo de imagem de conteúdo da mensagem |
messageContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | objecto | Yes | ||
| └─ anotações | matriz | No | ||
| └─ valor | cadeia (de caracteres) | Os dados que compõem o texto. | No | |
| tipo | cadeia (de caracteres) | Sempre text. |
Yes |
Tipo Enum: messageContentTextObjectType
| Value | Description |
|---|---|
| enviar SMS | O texto do conteúdo da mensagem Tipo de objeto |
messageContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "recuperação" para pesquisar arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | número inteiro | Yes | ||
| file_citation | objecto | Yes | ||
| └─ id_do_arquivo | cadeia (de caracteres) | O ID do arquivo específico do qual a citação é originada. | No | |
| start_index | número inteiro | Yes | ||
| enviar SMS | cadeia (de caracteres) | O texto no conteúdo da mensagem que precisa ser substituído. | Yes | |
| tipo | cadeia (de caracteres) | Sempre file_citation. |
Yes |
tipo Enum: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | O tipo de objeto de citação de arquivo |
messageContentTextAnnotationsFilePathObject
Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | número inteiro | Yes | ||
| file_path | objecto | Yes | ||
| └─ id_do_arquivo | cadeia (de caracteres) | A ID do arquivo que foi gerado. | No | |
| start_index | número inteiro | Yes | ||
| enviar SMS | cadeia (de caracteres) | O texto no conteúdo da mensagem que precisa ser substituído. | Yes | |
| tipo | cadeia (de caracteres) | Sempre file_path. |
Yes |
tipo Enum: FilePathObjectType
| Value | Description |
|---|---|
| file_path | O tipo de objeto de caminho de arquivo |
messageDeltaContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_file | objecto | No | ||
| └─ id_do_arquivo | cadeia (de caracteres) | O ID de arquivo da imagem no conteúdo da mensagem. | No | |
| indexar | número inteiro | O índice da parte de conteúdo na mensagem. | Yes | |
| tipo | cadeia (de caracteres) | Sempre image_file. |
Yes |
Tipo Enum: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | número inteiro | O índice da parte de conteúdo na mensagem. | Yes | |
| enviar SMS | objecto | No | ||
| └─ anotações | matriz | No | ||
| └─ valor | cadeia (de caracteres) | Os dados que compõem o texto. | No | |
| tipo | cadeia (de caracteres) | Sempre text. |
Yes |
tipo Enum: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| enviar SMS |
messageDeltaContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Criado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | número inteiro | No | ||
| file_citation | objecto | No | ||
| └─ id_do_arquivo | cadeia (de caracteres) | O ID do arquivo específico do qual a citação é originada. | No | |
| └─ citação | cadeia (de caracteres) | A citação específica no arquivo. | No | |
| indexar | número inteiro | O índice da anotação na parte de conteúdo do texto. | Yes | |
| start_index | número inteiro | No | ||
| enviar SMS | cadeia (de caracteres) | O texto no conteúdo da mensagem que precisa ser substituído. | No | |
| tipo | cadeia (de caracteres) | Sempre file_citation. |
Yes |
tipo Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | número inteiro | No | ||
| file_path | objecto | No | ||
| └─ id_do_arquivo | cadeia (de caracteres) | A ID do arquivo que foi gerado. | No | |
| indexar | número inteiro | O índice da anotação na parte de conteúdo do texto. | Yes | |
| start_index | número inteiro | No | ||
| enviar SMS | cadeia (de caracteres) | O texto no conteúdo da mensagem que precisa ser substituído. | No | |
| tipo | cadeia (de caracteres) | Sempre file_path. |
Yes |
tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Representa uma etapa na execução de uma execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia (de caracteres) | A ID do assistente associada à etapa de execução. | Yes | |
| cancelled_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi cancelada. | Yes | |
| completed_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi concluída. | Yes | |
| created_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi criada. | Yes | |
| expired_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução expirou. Uma etapa é considerada expirada se a execução pai tiver expirado. | Yes | |
| failed_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução falhou. | Yes | |
| id | cadeia (de caracteres) | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. | Yes | |
| last_error | objecto | O último erro associado a esta etapa de execução. Será null se não houver erros. |
Yes | |
| └─ código | cadeia (de caracteres) | Um dos server_error ou rate_limit_exceeded. |
No | |
| └─ mensagem | cadeia (de caracteres) | Uma descrição do erro legível por humanos. | No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Yes | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre assistant.run.step. |
Yes | |
| run_id | cadeia (de caracteres) | A ID da execução da qual esta etapa de execução faz parte. | Yes | |
| estado | cadeia (de caracteres) | O status da execução, que pode ser in_progress, cancelled, failed, completed, ou expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Os detalhes da etapa de execução. | Yes | |
| thread_id | cadeia (de caracteres) | O ID dos threads que foram executados. | Yes | |
| tipo | cadeia (de caracteres) | O tipo de etapa de execução, que pode ser ou message_creationtool_calls. |
Yes |
objeto Enum: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | O tipo de objeto, que é sempre assistant.run.step |
tipo Enum: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | A etapa de execução message_creation |
| tool_calls | A etapa de execução tool_calls |
Enum de estado: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | O status de execução do in_progress |
| cancelled | O status de execução cancelado |
| failed | O status de execução cancelado |
| completed | O status de execução cancelado |
| expired | O status de execução cancelado |
runStepDeltaObject
Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | objecto | O delta que contém os campos que foram alterados na etapa de execução. | Yes | |
| └─ detalhes_do_passo | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Os detalhes da etapa de execução. | No | |
| id | cadeia (de caracteres) | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. | Yes | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre thread.run.step.delta. |
Yes |
objeto Enum: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia (de caracteres) | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
runStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| message_creation | objecto | Yes | ||
| └─ id_da_mensagem | cadeia (de caracteres) | A ID da mensagem que foi criada por esta etapa de execução. | No | |
| tipo | cadeia (de caracteres) | Sempre message_creation. |
Yes |
tipo Enum: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| message_creation | objecto | No | ||
| └─ id_da_mensagem | cadeia (de caracteres) | A ID da mensagem que foi criada por esta etapa de execução. | No | |
| tipo | cadeia (de caracteres) | Sempre message_creation. |
Yes |
digite Enum: RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Detalhes da chamada da ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | matriz | Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter, retrieval ou function. |
Yes | |
| tipo | cadeia (de caracteres) | Sempre tool_calls. |
Yes |
tipo Enum: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Detalhes da chamada da ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | matriz | Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter, file_search ou function. |
No | |
| tipo | cadeia (de caracteres) | Sempre tool_calls. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | objecto | A definição de chamada da ferramenta Interpretador de Código. | Yes | |
| └─ entrada | cadeia (de caracteres) | A entrada para a chamada da ferramenta Interpretador de Código. | No | |
| └─ saídas | matriz | As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. |
No | |
| id | cadeia (de caracteres) | O identificador da chamada da ferramenta. | Yes | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | objecto | A definição de chamada da ferramenta Interpretador de Código. | No | |
| └─ entrada | cadeia (de caracteres) | A entrada para a chamada da ferramenta Interpretador de Código. | No | |
| └─ saídas | matriz | As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. |
No | |
| id | cadeia (de caracteres) | O identificador da chamada da ferramenta. | No | |
| indexar | número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| registos | cadeia (de caracteres) | A saída de texto da chamada da ferramenta Interpretador de Código. | Yes | |
| tipo | cadeia (de caracteres) | Sempre logs. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| registos |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | número inteiro | O índice da saída na matriz de saídas. | Yes | |
| registos | cadeia (de caracteres) | A saída de texto da chamada da ferramenta Interpretador de Código. | No | |
| tipo | cadeia (de caracteres) | Sempre logs. |
Yes |
tipo Enum: TipoDeObjetoDeRegistosDeSaídaDeCódigoDeFerramentasDeDetalhesDeEtapaDeDeltaDeEtapaDeExecução
| Value | Description |
|---|---|
| registos |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | objecto | Yes | ||
| └─ id_do_arquivo | cadeia (de caracteres) | O ID de arquivo da imagem. | No | |
| tipo | cadeia (de caracteres) | Sempre image. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| imagem |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | objecto | No | ||
| └─ id_do_arquivo | cadeia (de caracteres) | O ID do arquivo da imagem. | No | |
| indexar | número inteiro | O índice da saída na matriz de saídas. | Yes | |
| tipo | cadeia (de caracteres) | Sempre image. |
Yes |
digite Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| imagem |
runStepDetailsToolCallsFileSearchObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objecto | Por enquanto, este será sempre um objeto vazio. | Yes | |
| └─ Resultados | matriz | Os resultados da pesquisa de ficheiros. | No | |
| id | cadeia (de caracteres) | A ID do objeto de chamada da ferramenta. | Yes | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Uma instância de resultado da pesquisa de arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo do resultado encontrado. O conteúdo só é incluído se solicitado através do parâmetro include query. | No | |
| file_id | cadeia (de caracteres) | A ID do arquivo em que o resultado foi encontrado. | Yes | |
| file_name | cadeia (de caracteres) | O nome do arquivo em que o resultado foi encontrado. | Yes | |
| classificação | number | A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objecto | Por enquanto, este será sempre um objeto vazio. | Yes | |
| id | cadeia (de caracteres) | A ID do objeto de chamada da ferramenta. | No | |
| indexar | número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. |
Yes |
digite Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objecto | A definição da função que foi chamada. | Yes | |
| └─ argumentos | cadeia (de caracteres) | Os argumentos passaram para a função. | No | |
| └─ nome | cadeia (de caracteres) | O nome da função. | No | |
| └─ saída | cadeia (de caracteres) | A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados. |
No | |
| id | cadeia (de caracteres) | A ID do objeto de chamada da ferramenta. | Yes | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Yes |
Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| função |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objecto | A definição da função que foi chamada. | No | |
| └─ argumentos | cadeia (de caracteres) | Os argumentos passaram para a função. | No | |
| └─ nome | cadeia (de caracteres) | O nome da função. | No | |
| └─ saída | cadeia (de caracteres) | A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados. |
No | |
| id | cadeia (de caracteres) | A ID do objeto de chamada da ferramenta. | No | |
| indexar | número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Yes | |
| tipo | cadeia (de caracteres) | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Yes |
Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| função |
vectorStoreExpirationAfter
A política de expiração para um repositório de vetores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| âncora | cadeia (de caracteres) | Carimbo de data/hora âncora após o qual a política de expiração se aplica. Âncoras suportadas: last_active_at. |
Yes | |
| days | número inteiro | O número de dias após o tempo de ancoragem que o armazenamento do vetor expirará. | Yes |
âncora Enum: Expiração do Armazenamento de Vetores Após Âncora
| Value | Description |
|---|---|
| last_active_at | O carimbo de data/hora âncora após o qual a política de expiração se aplica. |
vectorStoreObject
Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi criado. | Yes | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | No | |
| expires_at | número inteiro | O carimbo de data/hora do Unix (em segundos) para quando o armazenamento vetorial expirará. | No | |
| file_counts | objecto | Yes | ||
| └─ Cancelado | número inteiro | O número de arquivos que foram cancelados. | No | |
| └─ concluída | número inteiro | O número de arquivos que foram processados com êxito. | No | |
| └─ não conseguiu | número inteiro | O número de arquivos que não conseguiram processar. | No | |
| └─ em progresso | número inteiro | O número de arquivos que estão sendo processados no momento. | No | |
| └─ total | número inteiro | O número total de ficheiros. | No | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| last_active_at | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi ativo pela última vez. | Yes | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Yes | |
| name | cadeia (de caracteres) | O nome do repositório de vetores. | Yes | |
| objecto | enumeração | O tipo de objeto, que é sempre vector_store.Valores possíveis: vector_store |
Yes | |
| estado | cadeia (de caracteres) | O status do armazenamento vetorial, que pode ser , expiredin_progressou completed. Um status de indica que o armazenamento de completed vetores está pronto para uso. |
Yes | |
| usage_bytes | número inteiro | O número total de bytes usados pelos arquivos no armazenamento vetorial. | Yes |
status Enum: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
No | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| name | cadeia (de caracteres) | O nome do repositório de vetores. | No |
updateVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | No | |
| metadados | objecto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
No | |
| name | cadeia (de caracteres) | O nome do repositório de vetores. | No |
listVectorStoresResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia (de caracteres) | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
deleteVectorStoreResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
objeto Enum: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | O estado do objeto de resposta do repositório de vetores de exclusão |
vectorStoreFileObject
Uma lista de arquivos anexados a um repositório vetorial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
No | |
| created_at | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o arquivo de armazenamento vetorial foi criado. | Yes | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| last_error | objecto | O último erro associado a este arquivo de armazenamento vetorial. Será null se não houver erros. |
Yes | |
| └─ código | cadeia (de caracteres) | Um de server_error ou invalid_fileunsupported_fileou . |
No | |
| └─ mensagem | cadeia (de caracteres) | Uma descrição do erro legível por humanos. | No | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre vector_store.file. |
Yes | |
| estado | cadeia (de caracteres) | O status do arquivo de armazenamento vetorial, que pode ser in_progress, completed, cancelled, ou failed. O status completed indica que o arquivo de armazenamento vetorial está pronto para uso. |
Yes | |
| usage_bytes | número inteiro | O uso total do armazenamento de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. | Yes | |
| vector_store_id | cadeia (de caracteres) | A ID do armazenamento de vetores ao qual o arquivo está anexado. | Yes |
objeto Enum: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
Status Enum: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Isso é retornado quando a estratégia de fragmentação é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy conceito ser introduzido na API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia (de caracteres) | Sempre other. |
Yes |
tipo Enum: OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | staticChunkingStrategy | Yes | ||
| tipo | cadeia (de caracteres) | Sempre static. |
Yes |
tipo Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| estático |
staticChunkingStrategy
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | número inteiro | O número de tokens que se sobrepõem entre partes. O valor predefinido é 400.Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | número inteiro | O número máximo de tokens em cada bloco. O valor predefinido é 800. O valor mínimo é 100 e o valor máximo é 4096. |
Yes |
autoChunkingStrategyRequestParam
A estratégia padrão. Esta estratégia utiliza atualmente um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | staticChunkingStrategy | Yes | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Yes |
chunkingStrategyRequestParam
A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia.
Este componente pode ser um dos seguintes:
createVectorStoreFileRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
No | |
| file_id | cadeia (de caracteres) | Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Yes |
listVectorStoreFilesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia (de caracteres) | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
deleteVectorStoreFileResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia (de caracteres) | Yes | ||
| objecto | cadeia (de caracteres) | Yes |
objeto Enum: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Um lote de arquivos anexados a um armazenamento vetorial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | número inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote de arquivos de armazenamento vetorial foi criado. | Yes | |
| file_counts | objecto | Yes | ||
| └─ Cancelado | número inteiro | O número de arquivos que foram cancelados. | No | |
| └─ concluída | número inteiro | O número de arquivos que foram processados. | No | |
| └─ não conseguiu | número inteiro | O número de arquivos que não conseguiram processar. | No | |
| └─ em progresso | número inteiro | O número de arquivos que estão sendo processados no momento. | No | |
| └─ total | número inteiro | O número total de ficheiros. | No | |
| id | cadeia (de caracteres) | O identificador, que pode ser referenciado em pontos de extremidade de API. | Yes | |
| objecto | cadeia (de caracteres) | O tipo de objeto, que é sempre vector_store.file_batch. |
Yes | |
| estado | cadeia (de caracteres) | O status do lote de arquivos de armazenamento vetorial, que pode ser in_progress, completedcancelled ou failed. |
Yes | |
| vector_store_id | cadeia (de caracteres) | A ID do armazenamento vetorial ao qual o arquivo está anexado. | Yes |
objeto Enum: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
status Enum: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Yes |
assistantStreamEvent
Representa um evento emitido durante o streaming de uma Execução.
Cada evento em um fluxo de eventos enviado pelo servidor tem uma event propriedade e data :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitimos eventos sempre que um novo objeto é criado, transita para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída e assim por diante. Quando um Assistente escolhe criar uma mensagem durante uma corrida, emitimos um thread.message.created event, um thread.message.in_progress evento, muitos thread.message.delta eventos e, finalmente, um thread.message.completed evento.
Podemos adicionar eventos adicionais ao longo do tempo, por isso recomendamos lidar com eventos desconhecidos graciosamente em seu código.
Este componente pode ser um dos seguintes:
threadStreamEvent
Este componente pode ser um dos seguintes:
thread.created
Ocorre quando um novo thread é criado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | threadObject | Representa um thread que contém mensagens. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: threadObject
Enum do evento: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | O evento criado pelo thread |
runStreamEvent
Este componente pode ser um dos seguintes:
thread.run.created
Ocorre quando uma nova execução é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Ocorre quando uma execução é movida para um queued status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Ocorre quando uma execução é movida para um in_progress status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Ocorre quando uma execução é movida para um requires_action status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Ocorre quando uma execução é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Ocorre quando uma execução falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Ocorre quando uma execução é movida para um cancelling status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Ocorre quando uma execução é cancelada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Ocorre quando uma execução expira.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução executada em um threads. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runObject
Enum do evento: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Este componente pode ser um dos seguintes:
thread.run.step.created
Ocorre quando uma etapa de execução é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runStepObject
Enum do evento: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Ocorre quando uma etapa de execução se move para um in_progress estado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runStepObject
Enum do evento: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Ocorre quando partes de uma etapa de execução estão sendo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepDeltaObject | Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming. |
Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runStepDeltaObject
Enum do evento: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Ocorre quando uma etapa de execução é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runStepObject
Enum do evento: RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Ocorre quando uma etapa de execução falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runStepObject
Enum do evento: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Ocorre quando uma etapa de execução é cancelada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runStepObject
Enum do Evento: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Ocorre quando uma etapa de execução expira.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa uma etapa na execução de uma execução. |
Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: runStepObject
Enum do evento: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Este componente pode ser um dos seguintes:
thread.message.created
Ocorre quando uma mensagem é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: messageObject
Enum do evento: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Ocorre quando uma mensagem é movida para um in_progress estado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: messageObject
Enum do evento: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Ocorre quando partes de uma mensagem estão sendo transmitidas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageDeltaObject | Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming. |
Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: messageDeltaObject
Enum do evento: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Ocorre quando uma mensagem é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: messageObject
Enum do evento: MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Ocorre quando uma mensagem termina antes de ser concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia (de caracteres) | Yes |
Dados: messageObject
Enum do evento: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Este componente pode ser um dos seguintes:
Click
Uma ação de clique.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| button | enumeração | Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, back, ou forward.Valores possíveis: left, right, wheel, back, , forward |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.Valores possíveis: click |
Yes | |
| x | número inteiro | A coordenada x onde ocorreu o clique. |
Yes | |
| y | número inteiro | A coordenada y onde ocorreu o clique. |
Yes |
CodeInterpreterFileOutput
A saída de um ficheiro gerada por uma chamada de ferramenta de interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| files | matriz | Yes | ||
| tipo | enumeração | O tipo de saída do arquivo do interpretador de código. Sempre files.Valores possíveis: files |
Yes |
CodeInterpreterTextOutput
A saída de uma chamada de ferramenta de interpretador de código que é texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| registos | cadeia (de caracteres) | Os registos da chamada do intérprete de código. |
Yes | |
| tipo | enumeração | O tipo de saída de texto do interpretador de código. Sempre logs.Valores possíveis: logs |
Yes |
CodeInterpreterTool
Uma ferramenta que executa código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_ids | matriz | As IDs dos arquivos nos quais executar o código. |
Yes | |
| tipo | enumeração | O tipo da ferramenta de interpretador de código. Sempre code_interpreter.Valores possíveis: code_interpreter |
Yes |
CodeInterpreterToolCall
Uma chamada de ferramenta para executar código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | cadeia (de caracteres) | O código a ser executado. |
Yes | |
| id | cadeia (de caracteres) | O ID exclusivo da chamada da ferramenta de interpretação de código. |
Yes | |
| results | matriz | Os resultados da invocação da ferramenta de interpretação de código. |
Yes | |
| estado | enumeração | O estado da chamada da ferramenta intérprete de código. Valores possíveis: in_progress, interpreting, completed |
Yes | |
| tipo | enumeração | O tipo de chamada da ferramenta de interpretação de código. Sempre code_interpreter_call.Valores possíveis: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Este componente pode ser um dos seguintes:
ComparisonFilter
Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia (de caracteres) | A chave pela qual se compara o valor. | Yes | |
| tipo | enumeração | Especifica o operador de comparação: eq, ne, gt, gte, lt, lte.- eq: igual a- ne: não igual- gt: superior a- gte: maior ou igual- lt: menos de- lte: menor ou igualValores possíveis: eq, ne, gt, gte, , lt, lte |
Yes | |
| value | string ou número ou booleano | O valor a ser comparado com a chave de atributo; suporta tipos de string, número ou booleanos. | Yes |
CompoundFilter
Combine vários filtros usando and ou or.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | matriz | Matriz de filtros para combinar. Os itens podem ser ComparisonFilter ou CompoundFilter. |
Yes | |
| tipo | enumeração | Tipo de operação: and ou or.Valores possíveis: and, or |
Yes |
ComputerAction
Este componente pode ser um dos seguintes:
ComputerScreenshotImage
Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia (de caracteres) | O identificador de um arquivo carregado que contém a captura de tela. | No | |
| image_url | cadeia (de caracteres) | O URL da imagem da captura de tela. | No | |
| tipo | enumeração | Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definida como computer_screenshot.Valores possíveis: computer_screenshot |
Yes |
ComputerTool
Uma ferramenta que controla um computador virtual.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | A altura do ecrã do computador. |
Yes | |
| display_width | number | A largura do ecrã do computador. |
Yes | |
| ambiente | enumeração | O tipo de ambiente de computador a controlar. Valores possíveis: mac, windows, ubuntu, browser |
Yes | |
| tipo | enumeração | O tipo de ferramenta de uso do computador. Sempre computer_use_preview.Valores possíveis: computer-use-preview |
Yes |
ComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | ComputerAction | Yes | ||
| call_id | cadeia (de caracteres) | Um identificador usado ao responder a uma solicitação da ferramenta com resultados. |
Yes | |
| id | cadeia (de caracteres) | O identificador exclusivo da chamada do computador. | Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada do computador. |
Yes | |
| estado | enumeração | O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
Yes | |
| tipo | enumeração | O tipo da chamada do computador. Sempre computer_call.Valores possíveis: computer_call |
Yes |
ComputerToolCallOutput
A saída de uma chamada de ferramenta de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API que foram reconhecidas pelo desenvolvedor. |
No | |
| call_id | cadeia (de caracteres) | O ID da chamada de ferramenta de computador que produziu a saída. |
Yes | |
| id | cadeia (de caracteres) | O ID da saída da chamada da ferramenta de computador. |
No | |
| output | ComputerScreenshotImage | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
Yes | |
| estado | enumeração | O estado da entrada de mensagem. Um de in_progress, completedou incomplete. Preenchido quando os itens de entrada são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo de saída da chamada da ferramenta do computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API que foram reconhecidas pelo desenvolvedor. |
No | |
| call_id | cadeia (de caracteres) | O ID da chamada de ferramenta de computador que produziu a saída. |
Yes | |
| id | cadeia (de caracteres) | O ID exclusivo da saída da ferramenta de chamada do computador. |
Yes | |
| output | ComputerScreenshotImage | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. |
Yes | |
| estado | enumeração | O estado da entrada de mensagem. Um de in_progress, completedou incomplete. Preenchido quando os itens de entrada são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo de saída da chamada da ferramenta do computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Uma verificação de segurança pendente para a chamada no computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | cadeia (de caracteres) | O tipo de verificação de segurança pendente. | Yes | |
| id | cadeia (de caracteres) | ID da verificação de segurança pendente. | Yes | |
| mensagem | cadeia (de caracteres) | Detalhes sobre a verificação de segurança pendente. | Yes |
Content
Conteúdos multimodais de entrada e saída.
Este componente pode ser um dos seguintes:
Coordinate
Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| x | número inteiro | A coordenada x. |
Yes | |
| y | número inteiro | A coordenada y. |
Yes |
CreateModelResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | Modelo utilizado para gerar as respostas. | No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. . |
No |
createResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | {"$ref": "#/components/schemas/includable/description"} | No | |
| dados introduzidos | cadeia de caracteres ou matriz | Entradas de texto, imagem ou arquivo no modelo, usadas para gerar uma resposta. | Yes | |
| instructions | cadeia (de caracteres) | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com o previous_response_id, as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio. |
No | |
| parallel_tool_calls | boolean | Se deve permitir que o modelo execute chamadas de ferramenta em paralelo. |
No | True |
| previous_response_id | cadeia (de caracteres) | O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. | No | |
| armazenar | boolean | Se a resposta do modelo gerado deve ser armazenada para recuperação posterior via API. |
No | True |
| fluxo | boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que são gerados usando eventos enviados pelo servidor. | No | False |
| enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
No | |
| └─ formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve produzir. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas incorporadas |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o para se ajustar à janela de contexto, removendo itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
DoubleClick
Uma ação de clique duplo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.Valores possíveis: double_click |
Yes | |
| x | número inteiro | A coordenada x onde ocorreu o duplo clique. |
Yes | |
| y | número inteiro | A coordenada y onde ocorreu o duplo clique. |
Yes |
Drag
Uma ação de arrastar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| caminho | matriz | Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas aparecerão como uma matriz de objetos, por exemplo[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definida como drag.Valores possíveis: drag |
Yes |
EasyInputMessage
Uma entrada de mensagem para o modelo com uma função que indica a adesão a uma hierarquia de instruções. As instruções dadas com a developer função ou system têm precedência sobre as instruções dadas com a user função. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | string ou InputMessageContentList | Entrada de texto, imagem ou áudio no modelo, usada para gerar uma resposta. Também pode conter respostas anteriores do assistente. |
Yes | |
| função | enumeração | A função da entrada de mensagem. Um de user, assistant, system, ou developer.Valores possíveis: user, assistant, system, developer |
Yes | |
| tipo | enumeração | O tipo de entrada de mensagem. Sempre message.Valores possíveis: message |
No |
FileCitation
Uma citação a um ficheiro.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia (de caracteres) | A ID do arquivo. |
Yes | |
| indexar | número inteiro | O índice do arquivo na lista de arquivos. |
Yes | |
| tipo | enumeração | O tipo de citação do arquivo. Sempre file_citation.Valores possíveis: file_citation |
Yes |
FilePath
Um caminho para um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia (de caracteres) | A ID do arquivo. |
Yes | |
| indexar | número inteiro | O índice do arquivo na lista de arquivos. |
Yes | |
| tipo | enumeração | O tipo do caminho do arquivo. Sempre file_path.Valores possíveis: file_path |
Yes |
FileSearchRanker
O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, será utilizado o auto ranker.
| Property | Value |
|---|---|
| Description | O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, será utilizado o auto ranker. |
| Type | cadeia (de caracteres) |
| Values | autodefault_2024_08_21 |
FileSearchTool
Uma ferramenta que procura conteúdo relevante a partir de ficheiros carregados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | número inteiro | O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive. |
No | |
| ranking_options | objecto | Opções de classificação para pesquisa. | No | |
| └─ classificador | enumeração | O classificador a ser usado para a pesquisa de arquivos. Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ limiar_de_pontuação | number | O limite de pontuação para a pesquisa de ficheiros, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. |
No | 0 |
| tipo | enumeração | O tipo da ferramenta de pesquisa de ficheiros. Sempre file_search.Valores possíveis: file_search |
Yes | |
| vector_store_ids | matriz | Os IDs do vetor armazena para pesquisar. |
Yes |
FileSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa de arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia (de caracteres) | A ID única da chamada da ferramenta de pesquisa de ficheiros. |
Yes | |
| queries | matriz | As consultas usadas para procurar arquivos. |
Yes | |
| results | matriz | Os resultados da chamada da ferramenta de pesquisa de ficheiros. |
No | |
| estado | enumeração | O status da chamada da ferramenta de pesquisa de arquivos. Um dos in_progress, searchingincomplete ou failed,Valores possíveis: in_progress, searching, completed, incomplete, , failed |
Yes | |
| tipo | enumeração | O tipo de chamada da ferramenta de pesquisa de ficheiros. Sempre file_search_call.Valores possíveis: file_search_call |
Yes |
FunctionTool
Define uma função no seu próprio código que o modelo pode optar por chamar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | Uma descrição da função. Usado pelo modelo para determinar se a função deve ou não ser chamada. |
No | |
| name | cadeia (de caracteres) | O nome da função a ser chamada. |
Yes | |
| parameters | objecto | Um objeto de esquema JSON que descreve os parâmetros da função. |
Yes | |
| strict | boolean | Se a validação de parâmetros estrita deve ser imposta. Padrão true. |
Yes | |
| tipo | enumeração | O tipo da ferramenta de função. Sempre function.Valores possíveis: function |
Yes |
FunctionToolCall
Uma chamada de ferramenta para executar uma função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia (de caracteres) | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. |
Yes | |
| call_id | cadeia (de caracteres) | O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo. |
Yes | |
| id | cadeia (de caracteres) | O ID único da chamada da ferramenta de função. |
Yes | |
| name | cadeia (de caracteres) | O nome da função a ser executada. |
Yes | |
| estado | enumeração | O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo de chamada da ferramenta funcional. Sempre function_call.Valores possíveis: function_call |
Yes |
FunctionToolCallOutput
A saída de uma chamada de ferramenta funcional.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia (de caracteres) | O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo. |
Yes | |
| id | cadeia (de caracteres) | O identificador exclusivo da saída de chamada da ferramenta de função. Preenchido quando este item é retornado via API. |
No | |
| output | cadeia (de caracteres) | Uma cadeia de caracteres JSON da saída da chamada da ferramenta funcional. |
Yes | |
| estado | enumeração | O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.Valores possíveis: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia (de caracteres) | O ID exclusivo da chamada da ferramenta funcional gerada pelo modelo. |
Yes | |
| id | cadeia (de caracteres) | O ID exclusivo da saída da ferramenta de chamada de função. |
Yes | |
| output | cadeia (de caracteres) | Uma cadeia de caracteres JSON da saída da chamada da ferramenta funcional. |
Yes | |
| estado | enumeração | O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.Valores possíveis: function_call_output |
Yes |
includable
Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores atualmente suportados são:
-
file_search_call.results: Inclua os resultados da ferramenta de pesquisa de arquivos na chamada de pesquisa. -
message.input_image.image_url: Inclua URLs de imagem da mensagem de entrada. -
computer_call_output.output.image_url: Inclua URLs de imagens dos resultados da chamada no computador.
| Property | Value |
|---|---|
| Description | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores atualmente suportados são: - file_search_call.results: Inclua nos resultados da pesquisa a chamada à ferramenta de pesquisa de arquivos.- message.input_image.image_url: Inclua urls de imagem da mensagem de entrada.- computer_call_output.output.image_url: Inclua URLs de imagens da saída de chamada do computador. |
| Type | cadeia (de caracteres) |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Uma entrada de áudio para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia (de caracteres) | Dados de áudio codificados em Base64. |
Yes | |
| format | enumeração | O formato dos dados de áudio. Os formatos atualmente suportados são mp3 e wav.Valores possíveis: mp3, wav |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_audio.Valores possíveis: input_audio |
Yes |
InputContent
Este componente pode ser um dos seguintes:
InputFile
Uma entrada de arquivo para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_data | cadeia (de caracteres) | O conteúdo do arquivo a ser enviado para o modelo. |
No | |
| file_id | cadeia (de caracteres) | A ID do arquivo a ser enviado para o modelo. |
No | |
| filename | cadeia (de caracteres) | O nome do arquivo a ser enviado para o modelo. |
No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Yes |
InputImage
Uma entrada de imagem para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detail | enumeração | O nível de detalhe da imagem a ser enviada para o modelo. Um de high, lowou auto. O padrão é auto.Valores possíveis: high, low, auto |
Yes | |
| file_id | cadeia (de caracteres) | A ID do arquivo a ser enviado para o modelo. |
No | |
| image_url | cadeia (de caracteres) | O URL da imagem a ser enviada para o modelo. Um URL totalmente qualificado ou uma imagem codificada em base64 em um URL de dados. |
No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Yes |
InputItem
Este componente pode ser um dos seguintes:
InputMessage
Uma entrada de mensagem para o modelo com uma função que indica a adesão a uma hierarquia de instruções. As instruções dadas com a developer função ou system têm precedência sobre as instruções dadas com a user função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdo diferente types. |
Yes | |
| função | enumeração | A função da entrada de mensagem. Um de user, systemou developer.Valores possíveis: user, system, developer |
Yes | |
| estado | enumeração | O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo de entrada de mensagem. Sempre definido como message.Valores possíveis: message |
No |
InputMessageContentList
Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes tipos de conteúdo.
Nenhuma propriedade definida para este componente.
InputMessageResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou vários itens de entrada para o modelo, contendo conteúdo diferente types. |
Yes | |
| id | cadeia (de caracteres) | O ID exclusivo da mensagem de entrada. |
Yes | |
| função | enumeração | A função da entrada de mensagem. Um de user, systemou developer.Valores possíveis: user, system, developer |
Yes | |
| estado | enumeração | O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo de entrada de mensagem. Sempre definido como message.Valores possíveis: message |
No |
InputText
Uma entrada de texto para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | A entrada de texto para o modelo. |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Yes |
Item
Item de conteúdo usado para gerar uma resposta.
Este componente pode ser um dos seguintes:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Um identificador interno para um item a ser referenciado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia (de caracteres) | A ID do item a ser referenciado. |
Yes | |
| tipo | enumeração | O tipo de item a ser referenciado. Sempre item_reference.Valores possíveis: item_reference |
Yes |
ItemResource
Item de conteúdo usado para gerar uma resposta.
Este componente pode ser um dos seguintes:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Uma coleção de pressionamentos de teclas que o modelo gostaria de realizar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| keys | matriz | A combinação de teclas que o modelo está solicitando para ser pressionada. Esta é uma matriz de cadeias de caracteres, cada uma representando uma chave. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de pressionamento de teclas, essa propriedade é sempre definida como keypress.Valores possíveis: keypress |
Yes |
Metadata
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel.
As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Nenhuma propriedade definida para este componente.
ModelResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia (de caracteres) | Modelo utilizado para gerar as respostas. | No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos. |
No | 1 |
| utilizador | cadeia (de caracteres) | Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. . |
No |
Move
Uma ação de movimento do mouse.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definida como move.Valores possíveis: move |
Yes | |
| x | número inteiro | A coordenada x para a qual mover. |
Yes | |
| y | número inteiro | A coordenada y para a qual mover. |
Yes |
OutputAudio
Uma saída de áudio do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia (de caracteres) | Dados de áudio codificados em Base64 do modelo. |
Yes | |
| transcrição | cadeia (de caracteres) | A transcrição dos dados de áudio do modelo. |
Yes | |
| tipo | enumeração | O tipo de áudio de saída. Sempre output_audio.Valores possíveis: output_audio |
Yes |
OutputContent
Este componente pode ser um dos seguintes:
OutputItem
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | ComputerAction | Yes | ||
| arguments | cadeia (de caracteres) | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. |
Yes | |
| call_id | cadeia (de caracteres) | Um identificador usado ao responder a uma solicitação da ferramenta com resultados. |
Yes | |
| conteúdo | matriz | Fundamentação do conteúdo do texto. |
Yes | |
| id | cadeia (de caracteres) | O identificador exclusivo do conteúdo do raciocínio. |
Yes | |
| name | cadeia (de caracteres) | O nome da função a ser executada. |
Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada do computador. |
Yes | |
| queries | matriz | As consultas usadas para procurar arquivos. |
Yes | |
| results | matriz | Os resultados da chamada da ferramenta de pesquisa de ficheiros. |
No | |
| função | enumeração | A função da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Yes | |
| estado | enumeração | O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
Yes | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Yes |
OutputMessage
Uma mensagem de saída do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo da mensagem de saída. |
Yes | |
| id | cadeia (de caracteres) | O ID exclusivo da mensagem de saída. |
Yes | |
| função | enumeração | A função da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Yes | |
| estado | enumeração | O estado da entrada de mensagem. Um de in_progress, completedou incomplete. Preenchido quando os itens de entrada são retornados via API.Valores possíveis: in_progress, completed, incomplete |
Yes | |
| tipo | enumeração | O tipo da mensagem de saída. Sempre message.Valores possíveis: message |
Yes |
OutputText
Uma saída de texto do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| annotations | matriz | As anotações sobre a saída de texto. |
Yes | |
| enviar SMS | cadeia (de caracteres) | A saída de texto do modelo. |
Yes | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Yes |
RealtimeSessionCreateRequest
Configuração de objeto de sessão em tempo real.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | objecto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada. |
No | |
| └─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objecto | Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do ponto de extremidade das transcrições e deve ser tratada como orientação sobre o conteúdo do áudio de entrada, em vez de exatamente o que o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição. |
No | |
| └─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhora a precisão e a latência. |
No | |
| └─ modelo | cadeia (de caracteres) | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15e whisper-1. |
No | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| instructions | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
No | ||
| modelo | cadeia (de caracteres) | O nome da implementação utilizada para esta sessão. |
No | |
| output_audio_format | enumeração | O formato de saída de áudio. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para o melhor desempenho. |
No | 0.8 |
| tool_choice | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
No | auto |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objecto | Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm, o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ criar_resposta | boolean | Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. |
No | True |
| └─ Entusiasmo | enumeração | Usado apenas para o modo semantic_vad. A ânsia do modelo em responder.
low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
No | |
| └─ resposta_de_interrupção | boolean | Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início de VAD. |
No | True |
| └─ preenchimento_prefixo_ms | número inteiro | Usado apenas para o modo server_vad. Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | número inteiro | Usado apenas para o modo server_vad. Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
No | |
| └─ limiar | number | Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
No | |
| └─ tipo | enumeração | Tipo de deteção de curvas. Valores possíveis: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Uma nova configuração de sessão em tempo real, com uma chave efémera. O TTL padrão para chaves é de um minuto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| client_secret | objecto | Chave efêmera retornada pela API. | Yes | |
| └─ expira_em | número inteiro | Data de expiração do token. Atualmente, todos os tokens expiram após um minuto. |
No | |
| └─ valor | cadeia (de caracteres) | Chave efêmera utilizável em ambientes cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor. |
No | |
| input_audio_format | cadeia (de caracteres) | O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw. |
No | |
| input_audio_transcription | objecto | Configuração para transcrição de áudio de entrada, com padrão desativado, e pode ser configurado para null desligar quando ativado. A transcrição de áudio de entrada não é nativa do modelo, uma vez que o modelo consome áudio diretamente. A transcrição é executada de forma assíncrona através do Whisper e deve ser tratada como orientação aproximada em vez da representação entendida pelo modelo. |
No | |
| └─ modelo | cadeia (de caracteres) | O modelo a ser usado para transcrição whisper-1 é o único modelo atualmente suportado. |
No | |
| instructions | cadeia (de caracteres) | As instruções padrão do sistema (ou seja, a mensagem do sistema) são adicionadas antes das chamadas de modelo. Este campo permite ao cliente orientar o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "fale rapidamente", "injete emoção em sua voz", "ria com frequência"). Não é garantido que as instruções sejam seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiver visível no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia de caracteres | Número máximo de tokens de saída para uma única resposta do assistente, incluindo chamadas de ferramentas. Forneça um inteiro entre 1 e 4096 para limitar os tokens de saída ou inf para o máximo de tokens disponíveis para um determinado modelo. O padrão é inf. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
No | ||
| output_audio_format | cadeia (de caracteres) | O formato de saída de áudio. As opções são pcm16, g711_ulawou g711_alaw. |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0.6, 1.2]. O padrão é 0,8. |
No | |
| tool_choice | cadeia (de caracteres) | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
No | |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objecto | Configuração para deteção de turnos. Pode ser configurado para null para desligar. O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. |
No | |
| └─ preenchimento_prefixo_ms | número inteiro | Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | número inteiro | Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
No | |
| └─ limiar | number | Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
No | |
| └─ tipo | cadeia (de caracteres) | Tipo de deteção de turnos, apenas server_vad é suportado atualmente. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configuração de objeto de sessão de transcrição em tempo real.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | O conjunto de itens a incluir na transcrição. Os itens disponíveis atualmente são: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enumeração | O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de amostragem de 24 kHz, canal único (mono) e ordem de bytes little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | objecto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null para desativar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado ao VAD e ao modelo. A filtragem do áudio pode melhorar a precisão da deteção de VAD e da deteção de mudança de estado (reduzindo falsos positivos) e o desempenho do modelo, ao aprimorar a perceção do áudio de entrada. |
No | |
| └─ tipo | enumeração | Tipo de redução de ruído.
near_field é para microfones de fala fechada, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou microfones de sala de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objecto | Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, estes oferecem orientação adicional para o serviço de transcrição. |
No | |
| └─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhora a precisão e a latência. |
No | |
| └─ modelo | enumeração | O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, , whisper-1 |
No | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma cadeia de texto livre, por exemplo, "espere palavras relacionadas à tecnologia". |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
No | ||
| turn_detection | objecto | Configuração para deteção de turnos, servidor ether VAD ou VAD semântico. Pode ser ajustado para null para desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. O VAD semântico é mais avançado e usa um modelo de deteção de turnos (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar e, em seguida, define dinamicamente um tempo limite com base nessa probabilidade. Por exemplo, se o áudio do utilizador começar a desvanecer com uhhm, o modelo atribuirá uma baixa probabilidade de final de turno e esperará mais tempo para que o utilizador continue a falar. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ criar_resposta | boolean | Gerar ou não automaticamente uma resposta quando ocorre um evento de parada de VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ Entusiasmo | enumeração | Usado apenas para o modo semantic_vad. A ânsia do modelo em responder.
low vai esperar mais tempo para o usuário continuar falando, high vai responder mais rapidamente.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
No | |
| └─ resposta_de_interrupção | boolean | Interromper ou não automaticamente qualquer resposta contínua com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início de VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ preenchimento_prefixo_ms | número inteiro | Usado apenas para o modo server_vad. Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | número inteiro | Usado apenas para o modo server_vad. Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
No | |
| └─ limiar | number | Usado apenas para o modo server_vad. Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
No | |
| └─ tipo | enumeração | Tipo de deteção de curvas. Valores possíveis: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Uma nova configuração de sessão de transcrição em tempo real.
Quando uma sessão é criada no servidor via API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada por meio da API WebSocket.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| client_secret | objecto | Chave efêmera retornada pela API. Presente apenas quando a sessão é criada no servidor via API REST. |
Yes | |
| └─ expira_em | número inteiro | Data de expiração do token. Atualmente, todos os tokens expiram após um minuto. |
No | |
| └─ valor | cadeia (de caracteres) | Chave efêmera utilizável em ambientes cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente em vez de um token de API padrão, que só deve ser usado no lado do servidor. |
No | |
| input_audio_format | cadeia (de caracteres) | O formato de entrada de áudio. As opções são pcm16, g711_ulawou g711_alaw. |
No | |
| input_audio_transcription | objecto | Configuração do modelo de transcrição. |
No | |
| └─ língua | cadeia (de caracteres) | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 (por exemplo) enmelhora a precisão e a latência. |
No | |
| └─ modelo | enumeração | O modelo a utilizar para a transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, ou whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ Prompt | cadeia (de caracteres) | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina como ["texto"]. |
No | ||
| turn_detection | objecto | Configuração para deteção de turnos. Pode ser configurado para null para desligar. O VAD do servidor significa que o modelo detetará o início e o fim da fala com base no volume do áudio e responderá no final da fala do usuário. |
No | |
| └─ preenchimento_prefixo_ms | número inteiro | Quantidade de áudio a incluir antes de o VAD detetar voz (em milissegundos). O valor padrão é 300ms. |
No | |
| └─ duração_do_silêncio_ms | número inteiro | Duração do silêncio para detetar a interrupção da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rapidamente, mas poderá intervir durante pausas curtas do utilizador. |
No | |
| └─ limiar | number | Limite de ativação para VAD (0,0 a 1,0), o padrão é 0,5. Um limite mais alto exigirá áudio mais alto para ativar o modelo e, portanto, poderá ter um melhor desempenho em ambientes barulhentos. |
No | |
| └─ tipo | cadeia (de caracteres) | Tipo de deteção de turnos, apenas server_vad é suportado atualmente. |
No |
Reasoning
Opções de configuração para modelos de raciocínio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta. |
Yes | meio |
| resumo | enumeração | Um resumo do raciocínio realizado pelo modelo. Isso pode ser útil para depurar e entender o processo de raciocínio do modelo. Um dos concise ou detailed.Valores possíveis: concise, detailed |
No |
ReasoningItem
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Fundamentação do conteúdo do texto. |
Yes | |
| id | cadeia (de caracteres) | O identificador exclusivo do conteúdo do raciocínio. |
Yes | |
| estado | enumeração | O estado do item. Um de in_progress, completedou incomplete. É preenchido quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Yes |
Refusal
Uma recusa do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia (de caracteres) | A explicação da recusa a partir do modelo. |
Yes | |
| tipo | enumeração | O tipo de recusa. Sempre refusal.Valores possíveis: refusal |
Yes |
response
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Marca de data/hora Unix (em segundos) de quando esta Resposta foi criada. |
Yes | |
| erro | ResponseError | Um objeto de erro retornado quando o modelo não consegue gerar uma resposta. |
Yes | |
| id | cadeia (de caracteres) | Identificador exclusivo para esta resposta. |
Yes | |
| incomplete_details | objecto | Detalhes sobre o motivo pelo qual a resposta está incompleta. |
Yes | |
| └─ Justificação | enumeração | A razão pela qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| instructions | cadeia (de caracteres) | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com o previous_response_id, as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
Yes | |
| max_output_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| metadados | Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Yes | |
| modelo | cadeia (de caracteres) | Modelo utilizado para gerar as respostas. | Yes | |
| objecto | enumeração | O tipo de objeto deste recurso - sempre definido como response.Valores possíveis: response |
Yes | |
| output | matriz | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a output ordem dos itens na matriz dependem da resposta do modelo.- Em vez de aceder ao primeiro item da output matriz e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a propriedade output_text onde suportada em SDKs. |
Yes | |
| output_text | cadeia (de caracteres) | Propriedade restrita ao SDK que contém a saída de texto agregada de todos os output_text itens no output array, caso existam. Suportado nos SDKs Python e JavaScript. |
No | |
| parallel_tool_calls | boolean | Se deve permitir que o modelo execute chamadas de ferramenta em paralelo. |
Yes | True |
| previous_response_id | cadeia (de caracteres) | O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. |
No | |
| estado | enumeração | O estado da geração de resposta. Um de completed, failed, in_progress, ou incomplete.Valores possíveis: completed, failed, in_progress, incomplete |
No | |
| temperature | number | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isto ou top_p, mas não ambos. |
Yes | 1 |
| enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
No | |
| └─ formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve produzir. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
Yes | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas incorporadas |
Yes | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isto ou temperature, mas não ambos. |
Yes | 1 |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| utilização | ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento de tokens de saída e o total de tokens usados. |
No | |
| utilizador | cadeia (de caracteres) | Um identificador exclusivo que representa seu usuário final, que pode ajudar a OpenAI a monitorar e detetar abusos. . |
No |
ResponseAudioDeltaEvent
Emitido quando há uma resposta de áudio parcial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia (de caracteres) | Uma porção de dados de áudio da resposta codificados em Base64. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.audio.delta.Valores possíveis: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Emitido quando a resposta de áudio é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre response.audio.done.Valores possíveis: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Emitido quando há uma transcrição parcial do áudio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia (de caracteres) | A transcrição parcial da resposta de áudio. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.delta.Valores possíveis: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Emitido quando a transcrição completa do áudio é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.done.Valores possíveis: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Emitido quando um trecho de código parcial é adicionado pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia (de caracteres) | O trecho de código parcial adicionado pelo interpretador de código. |
Yes | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.delta.Valores possíveis: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Emitido quando a saída do trecho de código é finalizada pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | cadeia (de caracteres) | A saída final do trecho de código pelo interpretador de código. |
Yes | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.done.Valores possíveis: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Emitido quando a chamada do interpretador de código é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Yes | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.completed.Valores possíveis: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Emitido quando uma chamada de interpretador de código está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Yes | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.in_progress.Valores possíveis: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Emitido quando o interpretador de código está interpretando ativamente o trecho de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Yes | |
| output_index | número inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.interpreting.Valores possíveis: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Emitido quando a resposta do modelo está completa.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.completed.Valores possíveis: response.completed |
Yes |
ResponseContentPartAddedEvent
Emitido quando uma nova parte de conteúdo é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte de conteúdo que foi adicionada. |
Yes | |
| item_id | cadeia (de caracteres) | A ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| output_index | número inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| part | OutputContent | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.content_part.added.Valores possíveis: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Emitido quando uma parte do conteúdo é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | número inteiro | O índice do conteúdo da parte que está concluída. |
Yes | |
| item_id | cadeia (de caracteres) | A ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| output_index | número inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| part | OutputContent | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.content_part.done.Valores possíveis: response.content_part.done |
Yes |
ResponseCreatedEvent
Um evento que é emitido quando uma resposta é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.created.Valores possíveis: response.created |
Yes |
ResponseError
Um objeto de erro retornado quando o modelo não consegue gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | ResponseErrorCode | O código de erro para a resposta. |
Yes | |
| mensagem | cadeia (de caracteres) | Uma descrição do erro legível por humanos. |
Yes |
ResponseErrorCode
O código de erro para a resposta.
| Property | Value |
|---|---|
| Description | O código de erro para a resposta. |
| Type | cadeia (de caracteres) |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Emitido quando ocorre um erro.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| código | cadeia (de caracteres) | O código de erro. |
Yes | |
| mensagem | cadeia (de caracteres) | A mensagem de erro. |
Yes | |
| param | cadeia (de caracteres) | O parâmetro de erro. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre error.Valores possíveis: error |
Yes |
ResponseFailedEvent
Um evento que é emitido quando uma resposta falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.failed.Valores possíveis: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Emitido quando uma chamada de pesquisa de arquivo é concluída (resultados encontrados).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia (de caracteres) | O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | número inteiro | O índice do item de saída em que é iniciada a chamada de pesquisa no arquivo. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.completed.Valores possíveis: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Emitido quando uma chamada de pesquisa de arquivo é iniciada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia (de caracteres) | O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | número inteiro | O índice do item de saída em que é iniciada a chamada de pesquisa no arquivo. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.in_progress.Valores possíveis: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Emitido quando uma pesquisa de arquivo está sendo pesquisada no momento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia (de caracteres) | O ID do item de saída para o qual a chamada de pesquisa de arquivo é iniciada. |
Yes | |
| output_index | número inteiro | O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.searching.Valores possíveis: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Emitido quando há um delta parcial de argumentos de chamada de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia (de caracteres) | Os argumentos delta de chamada de função que são adicionados. |
Yes | |
| item_id | cadeia (de caracteres) | A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado. |
Yes | |
| output_index | número inteiro | O índice do item de saída ao qual é somado o delta dos argumentos de chamada de função. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.function_call_arguments.delta.Valores possíveis: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Emitido quando os argumentos de chamada de função são finalizados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia (de caracteres) | Os argumentos de chamada de função. | Yes | |
| item_id | cadeia (de caracteres) | A ID do item. | Yes | |
| output_index | número inteiro | O índice do item de saída. | Yes | |
| tipo | enumeração | Valores possíveis: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Emitido quando a resposta está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.in_progress.Valores possíveis: response.in_progress |
Yes |
ResponseIncompleteEvent
Um evento que é emitido quando uma resposta termina como incompleta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.incomplete.Valores possíveis: response.incomplete |
Yes |
responseItemList
Uma lista de itens de resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Uma lista de itens usados para gerar essa resposta. | Yes | |
| first_id | cadeia (de caracteres) | A ID do primeiro item da lista. | Yes | |
| has_more | boolean | Se há mais itens disponíveis. | Yes | |
| last_id | cadeia (de caracteres) | A ID do último item da lista. | Yes | |
| objecto | enumeração | O tipo de objeto retornado, deve ser list.Valores possíveis: list |
Yes |
ResponseModalities
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos são capazes de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para este componente.
ResponseModalitiesTextOnly
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos são capazes de gerar texto, que é o padrão:
["text"]
Esta API em breve suportará outras modalidades de saída, incluindo áudio e imagens.
Nenhuma propriedade definida para este componente.
ResponseOutputItemAddedEvent
Emitido quando um novo item de saída é adicionado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | número inteiro | O índice do item de saída que foi adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.added.Valores possíveis: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Emitido quando um item de saída é marcado como concluído.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | número inteiro | O índice do item de saída que foi marcado como concluído. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.done.Valores possíveis: response.output_item.done |
Yes |
ResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| instructions | cadeia (de caracteres) | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com o previous_response_id, as instruções de uma resposta anterior não serão mantidas para a próxima resposta. Isso simplifica a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| previous_response_id | cadeia (de caracteres) | O ID único da resposta anterior dada ao modelo. Use isso para criar conversas de vários turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. |
No | |
| enviar SMS | objecto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Saiba mais: - entradas e saídas de texto - Saídas Estruturadas |
No | |
| └─ formato | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve produzir. A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas incorporadas |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: Se o contexto desta resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, soltando itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto de um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
ResponseRefusalDeltaEvent
Emitido quando há um texto de recusa parcial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte de conteúdo à qual o texto de recusa é adicionado. |
Yes | |
| delta | cadeia (de caracteres) | O texto de recusa que é adicionado. |
Yes | |
| item_id | cadeia (de caracteres) | A ID do item de saída ao qual o texto de recusa é adicionado. |
Yes | |
| output_index | número inteiro | O índice do item de saída ao qual o texto de recusa é adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.delta.Valores possíveis: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Emitido quando o texto de recusa é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte do conteúdo onde o texto de recusa é finalizado. |
Yes | |
| item_id | cadeia (de caracteres) | A ID do item de saída em que o texto de recusa é finalizado. |
Yes | |
| output_index | número inteiro | O índice do item de saída em que o texto de recusa é concluído. |
Yes | |
| refusal | cadeia (de caracteres) | O texto de recusa finalizado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.done.Valores possíveis: response.refusal.done |
Yes |
responseStreamEvent
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| anotação | Annotation | Yes | ||
| annotation_index | número inteiro | O índice da anotação adicionada. |
Yes | |
| arguments | cadeia (de caracteres) | Os argumentos de chamada de função. | Yes | |
| código | cadeia (de caracteres) | O código de erro. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para executar código. |
Yes | |
| content_index | número inteiro | O índice da parte do conteúdo em que o texto é finalizado. |
Yes | |
| delta | cadeia (de caracteres) | O texto delta que foi adicionado. |
Yes | |
| item | OutputItem | O item de saída que foi marcado como concluído. |
Yes | |
| item_id | cadeia (de caracteres) | O ID do item de saída onde o conteúdo de texto foi finalizado. |
Yes | |
| mensagem | cadeia (de caracteres) | A mensagem de erro. |
Yes | |
| output_index | número inteiro | O índice do item de saída em que o conteúdo do texto é finalizado. |
Yes | |
| param | cadeia (de caracteres) | O parâmetro de erro. |
Yes | |
| part | OutputContent | A parte de conteúdo que é feita. |
Yes | |
| refusal | cadeia (de caracteres) | O texto de recusa finalizado. |
Yes | |
| response | response | A resposta que estava incompleta. |
Yes | |
| enviar SMS | cadeia (de caracteres) | Conteúdo do texto que foi finalizado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Emitido quando uma anotação de texto é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| anotação | Annotation | Yes | ||
| annotation_index | número inteiro | O índice da anotação adicionada. |
Yes | |
| content_index | número inteiro | O índice da parte de conteúdo à qual a anotação de texto foi adicionada. |
Yes | |
| item_id | cadeia (de caracteres) | A ID do item de saída ao qual a anotação de texto foi adicionada. |
Yes | |
| output_index | número inteiro | O índice do item de saída ao qual a anotação de texto foi adicionada. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.annotation.added.Valores possíveis: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Emitido quando há um delta de texto adicional.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte de conteúdo à qual foi adicionado o delta de texto. |
Yes | |
| delta | cadeia (de caracteres) | O texto delta que foi adicionado. |
Yes | |
| item_id | cadeia (de caracteres) | A ID do item de saída ao qual o delta de texto foi adicionado. |
Yes | |
| output_index | número inteiro | O índice do item de saída ao qual o delta de texto foi adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.delta.Valores possíveis: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Emitido quando o conteúdo do texto é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | número inteiro | O índice da parte do conteúdo em que o texto é finalizado. |
Yes | |
| item_id | cadeia (de caracteres) | O ID do item de saída onde o conteúdo de texto foi finalizado. |
Yes | |
| output_index | número inteiro | O índice do item de saída em que o conteúdo do texto é finalizado. |
Yes | |
| enviar SMS | cadeia (de caracteres) | Conteúdo do texto que foi finalizado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
ResponseUsage
Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento de tokens de saída e o total de tokens usados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | número inteiro | O número de tokens de entrada. | Yes | |
| output_tokens | número inteiro | O número de tokens de saída. | Yes | |
| output_tokens_details | objecto | Um detalhamento detalhado dos tokens de saída. | Yes | |
| └─ tokens de raciocínio | número inteiro | O número de tokens de raciocínio. | No | |
| total_tokens | número inteiro | O número total de tokens usados. | Yes |
Screenshot
Uma ação de captura de tela.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definida como screenshot.Valores possíveis: screenshot |
Yes |
Scroll
Uma ação de rolagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | número inteiro | A distância de rolagem horizontal. |
Yes | |
| scroll_y | número inteiro | A distância de rolagem vertical. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definida como scroll.Valores possíveis: scroll |
Yes | |
| x | número inteiro | A coordenada x onde ocorreu a rolagem. |
Yes | |
| y | número inteiro | A coordenada y onde ocorreu a rolagem. |
Yes |
StopConfiguration
Até 4 sequências onde a API para de gerar mais tokens. O texto retornado não conterá a sequência de parada.
Este componente pode ser um dos seguintes:
TextResponseFormatConfiguration
Um objeto que especifica o formato que o modelo deve produzir.
A configuração { "type": "json_schema" } habilita saídas estruturadas, que garantem que o modelo corresponda ao esquema JSON fornecido.
O formato padrão é { "type": "text" } sem opções adicionais.
Não recomendado para gpt-4o e modelos mais recentes:
Configurar para { "type": "json_object" } ativa o modo JSON antigo, o que garante que a mensagem gerada pelo modelo seja JSON válido. O uso json_schema é preferível para modelos que o suportam.
Este componente pode ser um dos seguintes:
TextResponseFormatJsonSchema
Formato de resposta do esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre Saídas Estruturadas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia (de caracteres) | Uma descrição do propósito do formato de resposta, utilizada pelo modelo para determinar como responder nesse formato. |
No | |
| name | cadeia (de caracteres) | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. |
No | |
| esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. | Yes | |
| strict | boolean | Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema.Valores possíveis: json_schema |
Yes |
Tool
Este componente pode ser um dos seguintes:
ToolChoiceFunction
Use esta opção para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia (de caracteres) | O nome da função a ser chamada. | Yes | |
| tipo | enumeração | Para chamada de função, o tipo é sempre function.Valores possíveis: function |
Yes |
ToolChoiceOptions
Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
| Property | Value |
|---|---|
| Description | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
| Type | cadeia (de caracteres) |
| Values | noneautorequired |
ToolChoiceTypes
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ferramenta hospedada que o modelo deve usar. Os valores permitidos são: - file_search- computer_use_previewValores possíveis: file_search, computer_use_preview |
Yes |
Tipo
Uma ação para digitar texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | O texto a ser digitado. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.Valores possíveis: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números. |
Yes |
UrlCitation
Uma citação para um recurso da Web usado para gerar uma resposta de modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | número inteiro | O índice do último caractere da citação de URL na mensagem. |
Yes | |
| start_index | número inteiro | O índice do primeiro caractere da citação de URL na mensagem. |
Yes | |
| title | cadeia (de caracteres) | O título do recurso Web. |
Yes | |
| tipo | enumeração | O tipo de citação de URL. Sempre url_citation.Valores possíveis: url_citation |
Yes | |
| url | cadeia (de caracteres) | O URL do recurso Web. |
Yes |
VectorStoreFileAttributes
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números.
Nenhuma propriedade definida para este componente.
VectorStoreFileContentResponse
Representa o conteúdo analisado de um arquivo de armazenamento vetorial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Conteúdo analisado do arquivo. | Yes | |
| has_more | boolean | Indica se há mais páginas de conteúdo para buscar. | Yes | |
| next_page | cadeia (de caracteres) | O token para a próxima página, se houver. | Yes | |
| objecto | enumeração | O tipo de objeto, que é sempre vector_store.file_content.pageValores possíveis: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | No | |
| max_num_results | número inteiro | O número máximo de resultados a serem retornados. Este número deve situar-se entre 1 e 50, inclusive. | No | 10 |
| consulta | cadeia de caracteres ou matriz | Uma cadeia de caracteres de consulta para uma pesquisa | Yes | |
| ranking_options | objecto | Opções de classificação para pesquisa. | No | |
| └─ classificador | enumeração | Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ limiar_de_pontuação | number | No | 0 | |
| rewrite_query | boolean | Se a consulta de linguagem natural deve ser reescrita para pesquisa vetorial. | No | False |
VectorStoreSearchResultContentObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia (de caracteres) | O conteúdo de texto retornado da pesquisa. | Yes | |
| tipo | enumeração | O tipo de conteúdo. Valores possíveis: text |
Yes |
VectorStoreSearchResultItem
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou o painel. As teclas são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, booleanos ou números. |
Yes | |
| conteúdo | matriz | Partes de conteúdo do arquivo. | Yes | |
| file_id | cadeia (de caracteres) | A ID do arquivo de armazenamento vetorial. | Yes | |
| filename | cadeia (de caracteres) | O nome do arquivo de armazenamento vetorial. | Yes | |
| classificação | number | A pontuação de similaridade do resultado. | Yes |
VectorStoreSearchResultsPage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | A lista de itens de resultados de pesquisa. | Yes | |
| has_more | boolean | Indica se há mais resultados para buscar. | Yes | |
| next_page | cadeia (de caracteres) | O token para a próxima página, se houver. | Yes | |
| objecto | enumeração | O tipo de objeto, que é sempre vector_store.search_results.pageValores possíveis: vector_store.search_results.page |
Yes | |
| search_query | matriz | Yes |
VoiceIdsShared
Nenhuma propriedade definida para este componente.
Wait
Uma ação de espera.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de espera, esta propriedade é sempre definida como wait.Valores possíveis: wait |
Yes |
ReasoningEffort
Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
| Property | Value |
|---|---|
| Description | Restringe o esforço no raciocínio para modelos de raciocínio. Atualmente, os valores suportados são low, mediume high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta. |
| Type | cadeia (de caracteres) |
| Default | meio |
| Values | lowmediumhigh |
errorEvent
Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | error | Yes | ||
| evento | cadeia (de caracteres) | Yes |
Enum do evento: ErrorEventEnum
| Value | Description |
|---|---|
| erro |
doneEvent
Ocorre quando um fluxo termina.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia (de caracteres) | Yes | ||
| evento | cadeia (de caracteres) | Yes |
evento Enum: DoneEventEnum
| Value | Description |
|---|---|
| done |
Enum de dados: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Próximos passos
Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.