Azure OpenAI (versão prévia)
Integrar facilmente os recursos de inteligência artificial de ponta do Azure OpenAI em seus fluxos de trabalho
Esse conector está disponível nos seguintes produtos e regiões:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Todas as regiões do Power Automate , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Aplicativos Lógicos | Standard | Todas as regiões dos Aplicativos Lógicos , exceto as seguintes: – Regiões do Azure Governamental - Regiões do Azure China - Departamento de Defesa dos EUA (DoD) |
| Power Apps | Premium | Todas as regiões do Power Apps , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Power Automate | Premium | Todas as regiões do Power Automate , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Contato | |
|---|---|
| Nome | Microsoft |
| URL | https://support.microsoft.com |
| Metadados do conector | |
|---|---|
| Publicador | Microsoft |
| Site | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Política de privacidade | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Categorias | IA; Business Intelligence |
Criando uma conexão
O conector dá suporte aos seguintes tipos de autenticação:
| Chave de API | Forneça o nome do recurso do Azure OpenAI e a chave de API para acessar o Azure OpenAI que hospeda o modelo de IA. | Todas as regiões | Compartilhável |
| Identidades gerenciadas de Aplicativos Lógicos | Criar uma conexão usando uma Identidade Gerenciada do LogicApps | Somente LOGICAPPS | Compartilhável |
| Padrão [PRETERIDO] | Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores. | Todas as regiões | Não compartilhável |
Chave de API
ID de autenticação: keyBasedAuth
Aplicável: todas as regiões
Forneça o nome do recurso do Azure OpenAI e a chave de API para acessar o Azure OpenAI que hospeda o modelo de IA.
Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| O nome do recurso do OpenAI do Azure | cadeia | O nome do recurso Azure OpenAI que hospeda o modelo de IA | Verdade |
| Chave de API openai do Azure | secureString | A chave de API para acessar o recurso Azure OpenAI que hospeda o modelo de IA | Verdade |
| URL do ponto de extremidade do Azure Cognitive Search | cadeia | A URL do ponto de extremidade do Azure Cognitive Search indexando seus dados | |
| Chave da API do Azure Cognitive Search | secureString | A chave de API para acessar o ponto de extremidade do Azure Cognitive Search indexando seus dados |
Identidade Gerenciada de Aplicativos Lógicos
ID de autenticação: managedIdentityAuth
Aplicável: somente LOGICAPPS
Criar uma conexão usando uma Identidade Gerenciada do LogicApps
Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Identidade Gerenciada do LogicApps | managedIdentity | Entrar com uma identidade gerenciada de aplicativos lógicos | Verdade |
| O nome do recurso do OpenAI do Azure | cadeia | O nome do recurso Azure OpenAI que hospeda o modelo de IA | Verdade |
Padrão [PRETERIDO]
Aplicável: todas as regiões
Essa opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores.
Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| O nome do recurso do OpenAI do Azure | cadeia | O nome do recurso Azure OpenAI que hospeda o modelo de IA | Verdade |
| Chave de API openai do Azure | secureString | A chave de API para acessar o recurso Azure OpenAI que hospeda o modelo de IA | Verdade |
| URL do ponto de extremidade do Azure Cognitive Search | cadeia | A URL do ponto de extremidade do Azure Cognitive Search indexando seus dados | |
| Chave da API do Azure Cognitive Search | secureString | A chave de API para acessar o ponto de extremidade do Azure Cognitive Search indexando seus dados |
Limitações
| Nome | Chamadas | Período de renovação |
|---|---|---|
| Chamadas à API por conexão | 1000 | 60 segundos |
Ações
| Cria uma conclusão para a mensagem de chat |
Cria uma conclusão para a mensagem de chat |
| Obter uma inserção |
Obter uma representação de vetor de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de machine learning |
| Obter várias inserções |
Obter representações de vetor de uma determinada matriz de entradas que podem ser facilmente consumidas por modelos e algoritmos de machine learning |
| Usando extensões para criar uma conclusão para mensagens de chat |
Usando extensões para criar uma conclusão para mensagens de chat |
Cria uma conclusão para a mensagem de chat
Cria uma conclusão para a mensagem de chat
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
ID de implantação do modelo implantado
|
deployment-id | True | string |
ID de implantação do modelo implantado |
|
Versão da API
|
api-version | True | string |
Versão da API |
|
temperatura
|
temperature | number |
Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou |
|
|
top_p
|
top_p | number |
Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.
Geralmente recomendamos alterar isso ou |
|
|
fluxo
|
stream | boolean |
Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem |
|
|
Pare
|
stop | array of string |
Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada. |
|
|
número máximo de tokens
|
max_tokens | integer |
O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). |
|
|
penalidade_de_presença
|
presence_penalty | number |
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
|
|
frequency_penalty
|
frequency_penalty | number |
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
|
|
logit_bias
|
logit_bias | object |
Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. |
|
|
usuário
|
user | string |
Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. |
|
|
função
|
role | True | string |
A função do autor das mensagens. |
|
conteúdo
|
content | True | string |
Uma matriz de partes de conteúdo com um tipo definido, cada uma pode ser do tipo |
|
tipo
|
type | True | string |
Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
|
top_n_documents
|
top_n_documents | integer |
O número máximo de documentos configurados a serem apresentados para a consulta configurada. |
|
|
in_scope
|
in_scope | boolean |
Se as consultas devem ser restritas ao uso de dados indexados. |
|
|
strictness
|
strictness | integer |
A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. |
|
|
informações_de_função
|
role_information | string |
Forneça ao modelo instruções sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e como formatar as respostas. Há um limite de 100 tokens para isso, que conta para o limite geral de tokens. |
|
|
nome_do_indice
|
index_name | True | string |
O nome do índice a ser usado conforme disponível no recurso referenciado do Azure Search. |
|
campo_título
|
title_field | string |
O nome do campo de índice a ser utilizado como título. |
|
|
url_field
|
url_field | string |
O nome do campo de índice a ser utilizado como URL. |
|
|
filepath_field
|
filepath_field | string |
O nome do campo de índice a ser utilizado como um caminho de arquivo. |
|
|
campos de conteúdo
|
content_fields | array of string |
Os nomes dos campos de índice que devem ser tratados como conteúdo. |
|
|
separador_de_campos_de_conteúdo
|
content_fields_separator | string |
O padrão separador que os campos de conteúdo devem usar. |
|
|
campos vetoriais
|
vector_fields | array of string |
Os nomes dos campos que representam dados vetoriais. |
|
|
tipo_de_consulta
|
query_type | string |
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure. |
|
|
configuração_semântica
|
semantic_configuration | string |
A configuração semântica adicional da consulta. |
|
|
filtro
|
filter | string |
Filtro de pesquisa. |
|
|
tipo
|
type | string |
Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
|
|
nome_do_desdobramento
|
deployment_name | True | string |
Especifica o nome da implantação de modelo a ser usada para vetorização. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas. |
|
n
|
n | integer |
Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. |
|
|
seed
|
seed | integer |
Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo |
|
|
logprobs
|
logprobs | boolean |
Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no |
|
|
top_logprobs
|
top_logprobs | integer |
Um inteiro entre 0 e 5 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada.
|
|
|
tipo
|
type | string |
Configuração para |
Retornos
Obter uma inserção
Obter uma representação de vetor de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de machine learning
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
ID de implantação do modelo implantado
|
deployment-id | True | string |
ID de implantação do modelo implantado |
|
Versão da API
|
api-version | True | string |
Versão da API |
|
entrada
|
input | True | string |
Texto de entrada para o qual obter inserções, codificadas como uma cadeia de caracteres. A cadeia de caracteres de entrada não deve exceder 2048 tokens de comprimento |
|
usuário
|
user | string |
Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. |
|
|
tipo_de_entrada
|
input_type | string |
O tipo de entrada da pesquisa de inserção a ser usada. |
Retornos
Obter várias inserções
Obter representações de vetor de uma determinada matriz de entradas que podem ser facilmente consumidas por modelos e algoritmos de machine learning
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
ID de implantação do modelo implantado
|
deployment-id | True | string |
ID de implantação do modelo implantado |
|
Versão da API
|
api-version | True | string |
Versão da API |
|
entrada
|
input | True | array of string |
Matriz de textos de entrada para o qual obter inserções, codificadas como uma cadeia de caracteres. Cada cadeia de caracteres de entrada não deve exceder 2048 tokens de comprimento |
|
usuário
|
user | string |
Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. |
|
|
tipo_de_entrada
|
input_type | string |
O tipo de entrada da pesquisa de inserção a ser usada. |
Retornos
Usando extensões para criar uma conclusão para mensagens de chat
Usando extensões para criar uma conclusão para mensagens de chat
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
ID de implantação do modelo implantado
|
deployment-id | True | string |
ID de implantação do modelo implantado |
|
Confirmar a ID de implantação do modelo implantado
|
deploymentId | True | string |
Confirmar a ID de implantação do modelo implantado |
|
Versão da API
|
api-version | True | string |
Versão da API |
|
indexar
|
index | integer |
O índice da mensagem na conversa. |
|
|
função
|
role | True | string |
A função do autor dessa mensagem. |
|
destinatário
|
recipient | string |
O destinatário da mensagem no formato do <namespace>.<operação>. Apresente se e somente se o destinatário for uma ferramenta. |
|
|
conteúdo
|
content | True | string |
O conteúdo da mensagem |
|
end_turn
|
end_turn | boolean |
Se a mensagem termina a curva. |
|
|
tipo
|
type | True | string |
O tipo de fonte de dados. |
|
parameters
|
parameters | object |
Os parâmetros a serem usados para a fonte de dados em runtime. |
|
|
temperatura
|
temperature | number |
Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente recomendamos alterar isso ou |
|
|
top_p
|
top_p | number |
Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.
Geralmente recomendamos alterar isso ou |
|
|
fluxo
|
stream | boolean |
Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem |
|
|
Pare
|
stop | array of string |
Tamanho mínimo da matriz de 1 e máximo de 4 |
|
|
número máximo de tokens
|
max_tokens | integer |
O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). |
|
|
penalidade_de_presença
|
presence_penalty | number |
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
|
|
frequency_penalty
|
frequency_penalty | number |
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
|
|
logit_bias
|
logit_bias | object |
Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. |
|
|
usuário
|
user | string |
Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. |
Retornos
A resposta das conclusões do chat de extensões.
Definições
Message
Uma mensagem de chat.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
indexar
|
index | integer |
O índice da mensagem na conversa. |
|
função
|
role | string |
A função do autor dessa mensagem. |
|
destinatário
|
recipient | string |
O destinatário da mensagem no formato do <namespace>.<operação>. Apresente se e somente se o destinatário for uma ferramenta. |
|
conteúdo
|
content | string |
O conteúdo da mensagem |
|
end_turn
|
end_turn | boolean |
Se a mensagem termina a curva. |
ExtensionsChatCompletionsResponse
A resposta das conclusões do chat de extensões.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string | |
|
objeto
|
object | string | |
|
criadas
|
created | integer | |
|
modelo
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
total_tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
indexar
|
index | integer | |
|
motivo_de_conclusão
|
finish_reason | string | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. |
|
messages
|
messages | array of Message |
A lista de mensagens retornadas pelo serviço. |
contentFilterResult
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
severidade
|
severity | string | |
|
filtered
|
filtered | boolean |
contentFilterResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
violence
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
self_harm
|
self_harm | contentFilterResult | |
|
erro
|
error | errorBase |
promptFilterResult
Resultados de filtragem de conteúdo para uma única solicitação.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. |
promptFiltrarResultados
Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
Itens
|
promptFilterResult |
Resultados de filtragem de conteúdo para uma única solicitação. |
erroBase
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
codificar
|
code | string | |
|
mensagem
|
message | string |
errorBase_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
codificar
|
code | string | |
|
mensagem
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
severidade
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
licença
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string | |
|
filtered
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
erro
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
erro
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Resultados de filtragem de conteúdo para uma única solicitação.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. |
promptFilterResults_2024Feb15Preview
Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
Itens
|
promptFilterResult_2024Feb15Preview |
Resultados de filtragem de conteúdo para uma única solicitação. |
azureChatExtensionsMessageContext_2024Feb15Preview
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
citations
|
citations | array of citation_2024Feb15Preview |
O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. |
|
intenção
|
intent | string |
A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. |
citation_2024Feb15Preview
informações de citação para uma mensagem de resposta de preenchimento de chat.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
conteúdo
|
content | string |
O conteúdo da citação. |
|
title
|
title | string |
O título da citação. |
|
url
|
url | string |
A URL da citação. |
|
FilePath
|
filepath | string |
O caminho do arquivo da citação. |
|
identificador_de_fragmento
|
chunk_id | string |
A ID da parte da citação. |
createChatCompletionResponse_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
Identificador exclusivo para conclusão de chat. |
|
objeto
|
object | chatCompletionResponseObject_2024Feb15Preview |
O tipo de objeto. |
|
criadas
|
created | integer |
O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. |
|
modelo
|
model | string |
O modelo usado para a conclusão do chat. |
|
uso
|
usage | completionUsage_2024Feb15Preview |
Estatísticas de uso para a solicitação de preenchimento. |
|
system_fingerprint
|
system_fingerprint | string |
Pode ser usado com o parâmetro |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. |
|
choices
|
choices | array of object | |
|
indexar
|
choices.index | integer | |
|
motivo_de_conclusão
|
choices.finish_reason | string | |
|
mensagem
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Uma mensagem de conclusão de chat gerada pelo modelo. |
|
content_filter_results
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueios do cliente, se ela tiver sido filtrada e sua ID. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Informações de probabilidade de log para a escolha. |
chatCompletionChoiceLogProbs_2024Feb15Preview
Informações de probabilidade de log para a escolha.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
conteúdo
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. |
chatCompletionTokenLogprob_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
símbolo
|
token | string |
O token. |
|
logprob
|
logprob | number |
A probabilidade de log desse token. |
|
Bytes
|
bytes | array of integer |
Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser |
|
top_logprobs
|
top_logprobs | array of object |
Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de |
|
símbolo
|
top_logprobs.token | string |
O token. |
|
logprob
|
top_logprobs.logprob | number |
A probabilidade de log desse token. |
|
Bytes
|
top_logprobs.bytes | array of integer |
Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser |
chatCompletionResponseMessage_2024Feb15Preview
Uma mensagem de conclusão de chat gerada pelo modelo.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
função
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
A função do autor da mensagem de resposta. |
|
conteúdo
|
content | string |
O conteúdo da mensagem. |
|
contexto
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Estatísticas de uso para a solicitação de preenchimento.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Número de tokens no prompt. |
|
completion_tokens
|
completion_tokens | integer |
Número de tokens na conclusão gerada. |
|
total_tokens
|
total_tokens | integer |
Número total de tokens utilizados na solicitação (prompt + conclusão). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
objeto
|
object | string |
Detalhes do tipo de objeto de resposta |
|
modelo
|
model | string |
O nome do modelo |
|
embedding
|
embedding | array of number |
Uma matriz de floats que representam as inserções computadas para as entradas fornecidas |
|
prompt_tokens
|
usage.prompt_tokens | integer |
O número de tokens usados na entrada |
|
total_tokens
|
usage.total_tokens | integer |
O total de tokens usados |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
objeto
|
object | string |
Detalhes do tipo de objeto de resposta |
|
modelo
|
model | string |
O nome do modelo |
|
embeddings
|
embeddings | array of array |
Uma matriz com matrizes de floats que representam as inserções computadas da coleção de cadeias de caracteres de entrada |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
O número de tokens usados na entrada |
|
total_tokens
|
usage.total_tokens | integer |
O total de tokens usados |