Compartilhar via


Azure OpenAI (versão prévia)

Integrar facilmente os recursos de inteligência artificial de ponta do Azure OpenAI em seus fluxos de trabalho

Esse conector está disponível nos seguintes produtos e regiões:

Service Class Regions
Copilot Studio Premium Todas as regiões do Power Automate , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Aplicativos Lógicos Standard Todas as regiões dos Aplicativos Lógicos , exceto as seguintes:
     – Regiões do Azure Governamental
     - Regiões do Azure China
     - Departamento de Defesa dos EUA (DoD)
Power Apps Premium Todas as regiões do Power Apps , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Power Automate Premium Todas as regiões do Power Automate , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Contato
Nome Microsoft
URL https://support.microsoft.com
Metadados do conector
Publicador Microsoft
Site https://azure.microsoft.com/en-us/products/cognitive-services/openai-service
Política de privacidade https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
Categorias IA; Business Intelligence

Criando uma conexão

O conector dá suporte aos seguintes tipos de autenticação:

Chave de API Forneça o nome do recurso do Azure OpenAI e a chave de API para acessar o Azure OpenAI que hospeda o modelo de IA. Todas as regiões Compartilhável
Identidades gerenciadas de Aplicativos Lógicos Criar uma conexão usando uma Identidade Gerenciada do LogicApps Somente LOGICAPPS Compartilhável
Padrão [PRETERIDO] Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores. Todas as regiões Não compartilhável

Chave de API

ID de autenticação: keyBasedAuth

Aplicável: todas as regiões

Forneça o nome do recurso do Azure OpenAI e a chave de API para acessar o Azure OpenAI que hospeda o modelo de IA.

Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs

Nome Tipo Description Obrigatório
O nome do recurso do OpenAI do Azure cadeia O nome do recurso Azure OpenAI que hospeda o modelo de IA Verdade
Chave de API openai do Azure secureString A chave de API para acessar o recurso Azure OpenAI que hospeda o modelo de IA Verdade
URL do ponto de extremidade do Azure Cognitive Search cadeia A URL do ponto de extremidade do Azure Cognitive Search indexando seus dados
Chave da API do Azure Cognitive Search secureString A chave de API para acessar o ponto de extremidade do Azure Cognitive Search indexando seus dados

Identidade Gerenciada de Aplicativos Lógicos

ID de autenticação: managedIdentityAuth

Aplicável: somente LOGICAPPS

Criar uma conexão usando uma Identidade Gerenciada do LogicApps

Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs

Nome Tipo Description Obrigatório
Identidade Gerenciada do LogicApps managedIdentity Entrar com uma identidade gerenciada de aplicativos lógicos Verdade
O nome do recurso do OpenAI do Azure cadeia O nome do recurso Azure OpenAI que hospeda o modelo de IA Verdade

Padrão [PRETERIDO]

Aplicável: todas as regiões

Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores.

Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.

Nome Tipo Description Obrigatório
O nome do recurso do OpenAI do Azure cadeia O nome do recurso Azure OpenAI que hospeda o modelo de IA Verdade
Chave de API openai do Azure secureString A chave de API para acessar o recurso Azure OpenAI que hospeda o modelo de IA Verdade
URL do ponto de extremidade do Azure Cognitive Search cadeia A URL do ponto de extremidade do Azure Cognitive Search indexando seus dados
Chave da API do Azure Cognitive Search secureString A chave de API para acessar o ponto de extremidade do Azure Cognitive Search indexando seus dados

Limitações

Nome Chamadas Período de renovação
Chamadas à API por conexão 1000 60 segundos

Ações

Cria uma conclusão para a mensagem de chat

Cria uma conclusão para a mensagem de chat

Obter uma inserção

Obter uma representação de vetor de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de machine learning

Obter várias inserções

Obter representações de vetor de uma determinada matriz de entradas que podem ser facilmente consumidas por modelos e algoritmos de machine learning

Usando extensões para criar uma conclusão para mensagens de chat

Usando extensões para criar uma conclusão para mensagens de chat

Cria uma conclusão para a mensagem de chat

Cria uma conclusão para a mensagem de chat

Parâmetros

Nome Chave Obrigatório Tipo Description
ID de implantação do modelo implantado
deployment-id True string

ID de implantação do modelo implantado

Versão da API
api-version True string

Versão da API

temperatura
temperature number

Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.

top_p
top_p number

Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.

fluxo
stream boolean

Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE].

Pare
stop array of string

Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada.

número máximo de tokens
max_tokens integer

O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt).

penalidade_de_presença
presence_penalty number

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos.

frequency_penalty
frequency_penalty number

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra.

logit_bias
logit_bias object

Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante.

usuário
user string

Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos.

função
role True string

A função do autor das mensagens.

conteúdo
content True string

Uma matriz de partes de conteúdo com um tipo definido, cada uma pode ser do tipo text.

tipo
type True string

Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.

top_n_documents
top_n_documents integer

O número máximo de documentos configurados a serem apresentados para a consulta configurada.

in_scope
in_scope boolean

Se as consultas devem ser restritas ao uso de dados indexados.

strictness
strictness integer

A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta.

informações_de_função
role_information string

Forneça ao modelo instruções sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e como formatar as respostas. Há um limite de 100 tokens para isso, que conta para o limite geral de tokens.

nome_do_indice
index_name True string

O nome do índice a ser usado conforme disponível no recurso referenciado do Azure Search.

campo_título
title_field string

O nome do campo de índice a ser utilizado como título.

url_field
url_field string

O nome do campo de índice a ser utilizado como URL.

filepath_field
filepath_field string

O nome do campo de índice a ser utilizado como um caminho de arquivo.

campos de conteúdo
content_fields array of string

Os nomes dos campos de índice que devem ser tratados como conteúdo.

separador_de_campos_de_conteúdo
content_fields_separator string

O padrão separador que os campos de conteúdo devem usar.

campos vetoriais
vector_fields array of string

Os nomes dos campos que representam dados vetoriais.

tipo_de_consulta
query_type string

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.

configuração_semântica
semantic_configuration string

A configuração semântica adicional da consulta.

filtro
filter string

Filtro de pesquisa.

tipo
type string

Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores.

nome_do_desdobramento
deployment_name True string

Especifica o nome da implantação de modelo a ser usada para vetorização. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas.

n
n integer

Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada.

seed
seed integer

Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado. O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end.

logprobs
logprobs boolean

Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content de message. No momento, essa opção não está disponível no gpt-4-vision-preview modelo.

top_logprobs
top_logprobs integer

Um inteiro entre 0 e 5 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado.

tipo
type string

Configuração para json_object habilitar o modo JSON. Isso garante que a mensagem gerada pelo modelo seja JSON válida.

Retornos

Obter uma inserção

Obter uma representação de vetor de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de machine learning

Parâmetros

Nome Chave Obrigatório Tipo Description
ID de implantação do modelo implantado
deployment-id True string

ID de implantação do modelo implantado

Versão da API
api-version True string

Versão da API

entrada
input True string

Texto de entrada para o qual obter inserções, codificadas como uma cadeia de caracteres. A cadeia de caracteres de entrada não deve exceder 2048 tokens de comprimento

usuário
user string

Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos.

tipo_de_entrada
input_type string

O tipo de entrada da pesquisa de inserção a ser usada.

Retornos

Obter várias inserções

Obter representações de vetor de uma determinada matriz de entradas que podem ser facilmente consumidas por modelos e algoritmos de machine learning

Parâmetros

Nome Chave Obrigatório Tipo Description
ID de implantação do modelo implantado
deployment-id True string

ID de implantação do modelo implantado

Versão da API
api-version True string

Versão da API

entrada
input True array of string

Matriz de textos de entrada para o qual obter inserções, codificadas como uma cadeia de caracteres. Cada cadeia de caracteres de entrada não deve exceder 2048 tokens de comprimento

usuário
user string

Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos.

tipo_de_entrada
input_type string

O tipo de entrada da pesquisa de inserção a ser usada.

Retornos

Usando extensões para criar uma conclusão para mensagens de chat

Usando extensões para criar uma conclusão para mensagens de chat

Parâmetros

Nome Chave Obrigatório Tipo Description
ID de implantação do modelo implantado
deployment-id True string

ID de implantação do modelo implantado

Confirmar a ID de implantação do modelo implantado
deploymentId True string

Confirmar a ID de implantação do modelo implantado

Versão da API
api-version True string

Versão da API

indexar
index integer

O índice da mensagem na conversa.

função
role True string

A função do autor dessa mensagem.

destinatário
recipient string

O destinatário da mensagem no formato do <namespace>.<operação>. Apresente se e somente se o destinatário for uma ferramenta.

conteúdo
content True string

O conteúdo da mensagem

end_turn
end_turn boolean

Se a mensagem termina a curva.

tipo
type True string

O tipo de fonte de dados.

parameters
parameters object

Os parâmetros a serem usados para a fonte de dados em runtime.

temperatura
temperature number

Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p, mas não as duas coisas.

top_p
top_p number

Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature, mas não as duas coisas.

fluxo
stream boolean

Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE].

Pare
stop array of string

Tamanho mínimo da matriz de 1 e máximo de 4

número máximo de tokens
max_tokens integer

O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt).

penalidade_de_presença
presence_penalty number

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos.

frequency_penalty
frequency_penalty number

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra.

logit_bias
logit_bias object

Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante.

usuário
user string

Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos.

Retornos

A resposta das conclusões do chat de extensões.

Definições

Message

Uma mensagem de chat.

Nome Caminho Tipo Description
indexar
index integer

O índice da mensagem na conversa.

função
role string

A função do autor dessa mensagem.

destinatário
recipient string

O destinatário da mensagem no formato do <namespace>.<operação>. Apresente se e somente se o destinatário for uma ferramenta.

conteúdo
content string

O conteúdo da mensagem

end_turn
end_turn boolean

Se a mensagem termina a curva.

ExtensionsChatCompletionsResponse

A resposta das conclusões do chat de extensões.

Nome Caminho Tipo Description
id
id string
objeto
object string
criadas
created integer
modelo
model string
prompt_filter_results
prompt_filter_results promptFilterResults

Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.

prompt_tokens
usage.prompt_tokens integer
completion_tokens
usage.completion_tokens integer
total_tokens
usage.total_tokens integer
choices
choices array of ExtensionsChatCompletionChoice

ExtensionsChatCompletionChoice

Nome Caminho Tipo Description
indexar
index integer
motivo_de_conclusão
finish_reason string
content_filter_results
content_filter_results contentFilterResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não.

messages
messages array of Message

A lista de mensagens retornadas pelo serviço.

contentFilterResult

Nome Caminho Tipo Description
severidade
severity string
filtered
filtered boolean

contentFilterResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não.

Nome Caminho Tipo Description
sexual
sexual contentFilterResult
violence
violence contentFilterResult
hate
hate contentFilterResult
self_harm
self_harm contentFilterResult
erro
error errorBase

promptFilterResult

Resultados de filtragem de conteúdo para uma única solicitação.

Nome Caminho Tipo Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterResults

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não.

promptFiltrarResultados

Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.

Nome Caminho Tipo Description
Itens
promptFilterResult

Resultados de filtragem de conteúdo para uma única solicitação.

erroBase

Nome Caminho Tipo Description
codificar
code string
mensagem
message string

errorBase_2024Feb15Preview

Nome Caminho Tipo Description
codificar
code string
mensagem
message string

contentFilterSeverityResult_2024Feb15Preview

Nome Caminho Tipo Description
filtered
filtered boolean
severidade
severity string

contentFilterDetectedResult_2024Feb15Preview

Nome Caminho Tipo Description
filtered
filtered boolean
detected
detected boolean

contentFilterDetectedWithCitationResult_2024Feb15Preview

Nome Caminho Tipo Description
filtered
filtered boolean
detected
detected boolean
URL
citation.URL string
licença
citation.license string

contentFilterIdResult_2024Feb15Preview

Nome Caminho Tipo Description
id
id string
filtered
filtered boolean

contentFilterPromptResults_2024Feb15Preview

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

Nome Caminho Tipo Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
erro
error errorBase_2024Feb15Preview
jailbreak
jailbreak contentFilterDetectedResult_2024Feb15Preview

contentFilterChoiceResults_2024Feb15Preview

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

Nome Caminho Tipo Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
erro
error errorBase_2024Feb15Preview
protected_material_text
protected_material_text contentFilterDetectedResult_2024Feb15Preview
protected_material_code
protected_material_code contentFilterDetectedWithCitationResult_2024Feb15Preview

promptFilterResult_2024Feb15Preview

Resultados de filtragem de conteúdo para uma única solicitação.

Nome Caminho Tipo Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterPromptResults_2024Feb15Preview

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

promptFilterResults_2024Feb15Preview

Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.

Nome Caminho Tipo Description
Itens
promptFilterResult_2024Feb15Preview

Resultados de filtragem de conteúdo para uma única solicitação.

azureChatExtensionsMessageContext_2024Feb15Preview

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.

Nome Caminho Tipo Description
citations
citations array of citation_2024Feb15Preview

O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta.

intenção
intent string

A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto.

citation_2024Feb15Preview

informações de citação para uma mensagem de resposta de preenchimento de chat.

Nome Caminho Tipo Description
conteúdo
content string

O conteúdo da citação.

title
title string

O título da citação.

url
url string

A URL da citação.

FilePath
filepath string

O caminho do arquivo da citação.

identificador_de_fragmento
chunk_id string

A ID da parte da citação.

createChatCompletionResponse_2024Feb15Preview

Nome Caminho Tipo Description
id
id string

Identificador exclusivo para conclusão de chat.

objeto
object chatCompletionResponseObject_2024Feb15Preview

O tipo de objeto.

criadas
created integer

O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado.

modelo
model string

O modelo usado para a conclusão do chat.

uso
usage completionUsage_2024Feb15Preview

Estatísticas de uso para a solicitação de preenchimento.

system_fingerprint
system_fingerprint string

Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo.

prompt_filter_results
prompt_filter_results promptFilterResults_2024Feb15Preview

Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.

choices
choices array of object
indexar
choices.index integer
motivo_de_conclusão
choices.finish_reason string
mensagem
choices.message chatCompletionResponseMessage_2024Feb15Preview

Uma mensagem de conclusão de chat gerada pelo modelo.

content_filter_results
choices.content_filter_results contentFilterChoiceResults_2024Feb15Preview

Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.

logprobs
choices.logprobs chatCompletionChoiceLogProbs_2024Feb15Preview

Informações de probabilidade de log para a escolha.

chatCompletionChoiceLogProbs_2024Feb15Preview

Informações de probabilidade de log para a escolha.

Nome Caminho Tipo Description
conteúdo
content array of chatCompletionTokenLogprob_2024Feb15Preview

Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log.

chatCompletionTokenLogprob_2024Feb15Preview

Nome Caminho Tipo Description
símbolo
token string

O token.

logprob
logprob number

A probabilidade de log desse token.

Bytes
bytes array of integer

Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser null se não houver representação de bytes para o token.

top_logprobs
top_logprobs array of object

Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de top_logprobs retornados solicitados.

símbolo
top_logprobs.token string

O token.

logprob
top_logprobs.logprob number

A probabilidade de log desse token.

Bytes
top_logprobs.bytes array of integer

Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser null se não houver representação de bytes para o token.

chatCompletionResponseMessage_2024Feb15Preview

Uma mensagem de conclusão de chat gerada pelo modelo.

Nome Caminho Tipo Description
função
role chatCompletionResponseMessageRole_2024Feb15Preview

A função do autor da mensagem de resposta.

conteúdo
content string

O conteúdo da mensagem.

contexto
context azureChatExtensionsMessageContext_2024Feb15Preview

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.

chatCompletionResponseMessageRole_2024Feb15Preview

A função do autor da mensagem de resposta.

A função do autor da mensagem de resposta.

chatCompletionResponseObject_2024Feb15Preview

O tipo de objeto.

O tipo de objeto.

completionUsage_2024Feb15Preview

Estatísticas de uso para a solicitação de preenchimento.

Nome Caminho Tipo Description
prompt_tokens
prompt_tokens integer

Número de tokens no prompt.

completion_tokens
completion_tokens integer

Número de tokens na conclusão gerada.

total_tokens
total_tokens integer

Número total de tokens utilizados na solicitação (prompt + conclusão).

getSingleEmbeddingsResponse_2024Feb15Preview

Nome Caminho Tipo Description
objeto
object string

Detalhes do tipo de objeto de resposta

modelo
model string

O nome do modelo

embedding
embedding array of number

Uma matriz de floats que representam as inserções computadas para as entradas fornecidas

prompt_tokens
usage.prompt_tokens integer

O número de tokens usados na entrada

total_tokens
usage.total_tokens integer

O total de tokens usados

getMultipleEmbeddingsResponse_2024Feb15Preview

Nome Caminho Tipo Description
objeto
object string

Detalhes do tipo de objeto de resposta

modelo
model string

O nome do modelo

embeddings
embeddings array of array

Uma matriz com matrizes de floats que representam as inserções computadas da coleção de cadeias de caracteres de entrada

items
embeddings array of number
prompt_tokens
usage.prompt_tokens integer

O número de tokens usados na entrada

total_tokens
usage.total_tokens integer

O total de tokens usados