Azure OpenAI (Pré-visualização)
Integre facilmente as capacidades de inteligência artificial de ponta do Azure OpenAI nos seus fluxos de trabalho
Este conector está disponível nos seguintes produtos e regiões:
| Serviço | Class | Regiões |
|---|---|---|
| Estúdio Copiloto | Premium | Todas as regiões do Power Automatic , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Aplicações Lógicas | Standard | Todas as regiões do Logic Apps , exceto as seguintes: - Regiões do Azure Government - Regiões do Azure China - Departamento de Defesa dos EUA (DoD) |
| Aplicações Power | Premium | Todas as regiões do Power Apps , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Automatize o poder | Premium | Todas as regiões do Power Automatic , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Contato | |
|---|---|
| Nome | Microsoft |
| URL | https://support.microsoft.com |
| Metadados do conector | |
|---|---|
| Editora | Microsoft |
| Sítio Web | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Política de privacidade | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Categorias | IA; Inteligência de Negócios |
A criar uma ligação
O conector suporta os seguintes tipos de autenticação:
| Chave da API | Forneça o nome do recurso do Azure OpenAI e a chave da API para acessar seu Azure OpenAI que hospeda o Modelo de IA. | Todas as regiões | Compartilhável |
| Identidade gerenciada de aplicativos lógicos | Criar uma conexão usando uma identidade gerenciada do LogicApps | Apenas LOGICAPPS | Compartilhável |
| Padrão [DEPRECATED] | Esta opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores. | Todas as regiões | Não compartilhável |
Chave de API
ID de autenticação: keyBasedAuth
Aplicável: Todas as regiões
Forneça o nome do recurso do Azure OpenAI e a chave da API para acessar seu Azure OpenAI que hospeda o Modelo de IA.
Esta é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a Visão geral de conectores para aplicativos de tela - Power Apps | Documentos Microsoft
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Nome do recurso do Azure OpenAI | cadeia (de caracteres) | O nome do recurso OpenAI do Azure que hospeda o modelo de IA | Verdade |
| Chave da API do Azure OpenAI | securestring | A chave de API para acessar o recurso OpenAI do Azure que hospeda o modelo de IA | Verdade |
| URL do ponto de extremidade da Pesquisa Cognitiva do Azure | cadeia (de caracteres) | A URL do ponto de extremidade da Pesquisa Cognitiva do Azure indexando seus dados | |
| Chave da API de Pesquisa Cognitiva do Azure | securestring | A chave da API para acessar o ponto de extremidade da Pesquisa Cognitiva do Azure indexando seus dados |
Identidade gerenciada de aplicativos lógicos
ID de autenticação: managedIdentityAuth
Aplicável: apenas LOGICAPPS
Criar uma conexão usando uma identidade gerenciada do LogicApps
Esta é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a Visão geral de conectores para aplicativos de tela - Power Apps | Documentos Microsoft
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Identidade gerenciada do LogicApps | managedIdentity | Entrar com uma identidade gerenciada de aplicativos lógicos | Verdade |
| Nome do recurso do Azure OpenAI | cadeia (de caracteres) | O nome do recurso OpenAI do Azure que hospeda o modelo de IA | Verdade |
Padrão [DEPRECATED]
Aplicável: Todas as regiões
Esta opção é apenas para conexões mais antigas sem um tipo de autenticação explícita e é fornecida apenas para compatibilidade com versões anteriores.
Esta conexão não é compartilhável. Se o aplicativo avançado for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Nome do recurso do Azure OpenAI | cadeia (de caracteres) | O nome do recurso OpenAI do Azure que hospeda o modelo de IA | Verdade |
| Chave da API do Azure OpenAI | securestring | A chave de API para acessar o recurso OpenAI do Azure que hospeda o modelo de IA | Verdade |
| URL do ponto de extremidade da Pesquisa Cognitiva do Azure | cadeia (de caracteres) | A URL do ponto de extremidade da Pesquisa Cognitiva do Azure indexando seus dados | |
| Chave da API de Pesquisa Cognitiva do Azure | securestring | A chave da API para acessar o ponto de extremidade da Pesquisa Cognitiva do Azure indexando seus dados |
Limites de Limitação
| Name | Chamadas | Período de Renovação |
|---|---|---|
| Chamadas de API por conexão | 1000 | 60 segundos |
Ações
| Cria uma conclusão para a mensagem de chat |
Cria uma conclusão para a mensagem de chat |
| Obtenha várias incorporações |
Obtenha representações vetoriais de uma determinada matriz de entradas que podem ser facilmente consumidas por modelos e algoritmos de aprendizado de máquina |
| Obter uma incorporação |
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina |
| Usando extensões para criar uma conclusão para mensagens de bate-papo |
Usando extensões para criar uma conclusão para mensagens de bate-papo |
Cria uma conclusão para a mensagem de chat
Cria uma conclusão para a mensagem de chat
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
ID de implantação do modelo implantado
|
deployment-id | True | string |
ID de implantação do modelo implantado |
|
Versão da API
|
api-version | True | string |
Versão da API |
|
temperatura
|
temperature | number |
Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isto ou |
|
|
top_p
|
top_p | number |
Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente, recomendamos alterar isto ou |
|
|
fluxo
|
stream | boolean |
Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma |
|
|
pare
|
stop | array of string |
Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. |
|
|
máximo de tokens
|
max_tokens | integer |
O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens do prompt). |
|
|
penalização por presença
|
presence_penalty | number |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
|
|
penalização de frequência
|
frequency_penalty | number |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
|
|
logit_bias
|
logit_bias | object |
Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de ponderação associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
|
|
utilizador
|
user | string |
Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. |
|
|
função
|
role | True | string |
O papel do autor das mensagens. |
|
conteúdo
|
content | True | string |
Uma matriz de partes de conteúdo com um tipo definido, cada uma pode ser do tipo |
|
tipo
|
type | True | string |
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
|
melhores_n_documentos
|
top_n_documents | integer |
O número superior configurado de documentos a serem apresentados para a consulta configurada. |
|
|
em_escopo
|
in_scope | boolean |
Se as consultas devem ser restritas ao uso de dados indexados. |
|
|
rigor
|
strictness | integer |
O nível de estrictez definido na filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. |
|
|
informação sobre o cargo
|
role_information | string |
Dê instruções ao modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Pode descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite geral de tokens. |
|
|
nome_do_índice
|
index_name | True | string |
O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. |
|
campo_título
|
title_field | string |
O nome do campo de índice a ser usado como título. |
|
|
campo_url
|
url_field | string |
O nome do campo de índice a ser usado como URL. |
|
|
campo_caminho_do_ficheiro
|
filepath_field | string |
O nome do campo de índice a ser usado como um caminho de arquivo. |
|
|
campos_de_conteúdo
|
content_fields | array of string |
Os nomes dos campos de índice que devem ser tratados como conteúdo. |
|
|
separador_de_campos_de_conteúdo
|
content_fields_separator | string |
O padrão separador que os campos de conteúdo devem usar. |
|
|
campos vetoriais
|
vector_fields | array of string |
Os nomes dos campos que representam dados vetoriais. |
|
|
tipo_de_consulta
|
query_type | string |
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. |
|
|
configuração semântica
|
semantic_configuration | string |
A configuração semântica adicional para a consulta. |
|
|
filtro
|
filter | string |
Filtro de pesquisa. |
|
|
tipo
|
type | string |
Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
|
|
nome_da_implementação
|
deployment_name | True | string |
Especifica o nome da implantação do modelo a utilizar para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. |
|
n
|
n | integer |
Quantas opções de conclusão de chat gerar para cada mensagem de entrada. |
|
|
seed
|
seed | integer |
Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos |
|
|
Logprobs
|
logprobs | boolean |
Se deve retornar as probabilidades de log dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no |
|
|
top_logprobs
|
top_logprobs | integer |
Um inteiro entre 0 e 5 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada.
|
|
|
tipo
|
type | string |
Configuração para ativar o |
Devoluções
Obtenha várias incorporações
Obtenha representações vetoriais de uma determinada matriz de entradas que podem ser facilmente consumidas por modelos e algoritmos de aprendizado de máquina
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
ID de implantação do modelo implantado
|
deployment-id | True | string |
ID de implantação do modelo implantado |
|
Versão da API
|
api-version | True | string |
Versão da API |
|
dados introduzidos
|
input | True | array of string |
Matriz de textos de entrada para obter incorporações, codificados como uma cadeia de caracteres. Cada string de entrada não deve exceder 2048 tokens de comprimento |
|
utilizador
|
user | string |
Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. |
|
|
tipo_de_entrada
|
input_type | string |
O tipo de entrada de pesquisa de incorporação a ser usado. |
Devoluções
Obter uma incorporação
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
ID de implantação do modelo implantado
|
deployment-id | True | string |
ID de implantação do modelo implantado |
|
Versão da API
|
api-version | True | string |
Versão da API |
|
dados introduzidos
|
input | True | string |
Texto de entrada para obter incorporações, codificado como uma cadeia de caracteres. A cadeia de caracteres de entrada não deve exceder 2048 tokens de comprimento |
|
utilizador
|
user | string |
Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. |
|
|
tipo_de_entrada
|
input_type | string |
O tipo de entrada de pesquisa de incorporação a ser usado. |
Devoluções
Usando extensões para criar uma conclusão para mensagens de bate-papo
Usando extensões para criar uma conclusão para mensagens de bate-papo
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
ID de implantação do modelo implantado
|
deployment-id | True | string |
ID de implantação do modelo implantado |
|
Confirmar ID de implantação do modelo implantado
|
deploymentId | True | string |
Confirmar ID de implantação do modelo implantado |
|
Versão da API
|
api-version | True | string |
Versão da API |
|
indexar
|
index | integer |
O índice da mensagem na conversa. |
|
|
função
|
role | True | string |
O papel do autor desta mensagem. |
|
destinatário
|
recipient | string |
O destinatário da mensagem no formato de <namespace>.<operação>. Apresente se e somente se o destinatário for ferramenta. |
|
|
conteúdo
|
content | True | string |
O conteúdo da mensagem |
|
end_turn
|
end_turn | boolean |
Se a mensagem termina a volta. |
|
|
tipo
|
type | True | string |
O tipo de fonte de dados. |
|
parameters
|
parameters | object |
Os parâmetros a serem usados para a fonte de dados em tempo de execução. |
|
|
temperatura
|
temperature | number |
Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isto ou |
|
|
top_p
|
top_p | number |
Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente, recomendamos alterar isto ou |
|
|
fluxo
|
stream | boolean |
Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma |
|
|
pare
|
stop | array of string |
Tamanho mínimo da matriz de 1 e máximo de 4 |
|
|
máximo de tokens
|
max_tokens | integer |
O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens do prompt). |
|
|
penalização por presença
|
presence_penalty | number |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
|
|
penalização de frequência
|
frequency_penalty | number |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
|
|
logit_bias
|
logit_bias | object |
Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo seu ID de token no tokenizador) para um valor de ponderação associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
|
|
utilizador
|
user | string |
Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. |
Devoluções
A resposta das extensões de conclusão de chat.
Definições
Message
Uma mensagem de chat.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
indexar
|
index | integer |
O índice da mensagem na conversa. |
|
função
|
role | string |
O papel do autor desta mensagem. |
|
destinatário
|
recipient | string |
O destinatário da mensagem no formato de <namespace>.<operação>. Apresente se e somente se o destinatário for ferramenta. |
|
conteúdo
|
content | string |
O conteúdo da mensagem |
|
end_turn
|
end_turn | boolean |
Se a mensagem termina a volta. |
ExtensõesChatConclusãoResposta
A resposta das extensões de conclusão de chat.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string | |
|
objecto
|
object | string | |
|
criado
|
created | integer | |
|
modelo
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
total_tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensõesChatCompletionChoice
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
indexar
|
index | integer | |
|
motivo_de_finalização
|
finish_reason | string | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. |
|
messages
|
messages | array of Message |
A lista de mensagens retornadas pelo serviço. |
contentFilterResult
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
severity
|
severity | string | |
|
filtered
|
filtered | boolean |
contentFilterResults
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
violence
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
self_harm
|
self_harm | contentFilterResult | |
|
erro
|
error | errorBase |
Resultado do Filtro de Prompt
Resultados da filtragem de conteúdo para um único prompt na solicitação.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. |
promptFiltrarResultados
A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
Itens
|
promptFilterResult |
Resultados da filtragem de conteúdo para um único prompt na solicitação. |
Base de Dados de Erros
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
código
|
code | string | |
|
mensagem
|
message | string |
errorBase_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
código
|
code | string | |
|
mensagem
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
severity
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
licença
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string | |
|
filtered
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
erro
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
erro
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Resultados da filtragem de conteúdo para um único prompt na solicitação.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. |
promptFilterResults_2024Feb15Preview
A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
Itens
|
promptFilterResult_2024Feb15Preview |
Resultados da filtragem de conteúdo para um único prompt na solicitação. |
azureChatExtensionsMessageContext_2024Feb15Preview
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
citations
|
citations | array of citation_2024Feb15Preview |
O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. |
|
intenção
|
intent | string |
A intenção detetada a partir do histórico de conversas, usada para avançar para a próxima rodada, mantendo o contexto. |
citation_2024Feb15Preview
informações de citação para uma mensagem de resposta de conclusão do chat.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
conteúdo
|
content | string |
O conteúdo da citação. |
|
title
|
title | string |
O título da citação. |
|
URL
|
url | string |
O URL da citação. |
|
caminho do arquivo
|
filepath | string |
O caminho do arquivo da citação. |
|
Identificador_de_fragmento
|
chunk_id | string |
O ID do segmento da citação. |
createChatCompletionResponse_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
Um identificador exclusivo para a conclusão do chat. |
|
objecto
|
object | chatCompletionResponseObject_2024Feb15Preview |
O tipo de objeto. |
|
criado
|
created | integer |
O carimbo de data Unix (em segundos) de quando a conclusão do chat foi criada. |
|
modelo
|
model | string |
O modelo usado para a conclusão do chat. |
|
utilização
|
usage | completionUsage_2024Feb15Preview |
Estatísticas de utilização do pedido de preenchimento. |
|
system_fingerprint
|
system_fingerprint | string |
Pode ser usado em conjunto com o parâmetro |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Numa solicitação de transmissão, os resultados de diferentes prompts podem chegar em momentos ou ordens distintas. |
|
choices
|
choices | array of object | |
|
indexar
|
choices.index | integer | |
|
motivo_de_finalização
|
choices.finish_reason | string | |
|
mensagem
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Uma mensagem de conclusão do chat gerada pelo modelo. |
|
content_filter_results
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Informações sobre a categoria de filtragem de conteúdos (ódio, sexual, violência, autoagressão), caso tenham sido detetadas, bem como o nível de gravidade (muito baixo, baixo, médio, alto - uma escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. |
|
Logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Registre informações de probabilidade para a escolha. |
chatCompletionChoiceLogProbs_2024Feb15Preview
Registre informações de probabilidade para a escolha.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
conteúdo
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Uma lista de tokens de conteúdo de mensagem com informações de probabilidade logarítmica. |
chatCompletionTokenLogprob_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
token
|
token | string |
O token. |
|
logprob
|
logprob | number |
A probabilidade logarítmica deste token. |
|
bytes
|
bytes | array of integer |
Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser |
|
top_logprobs
|
top_logprobs | array of object |
Lista dos tokens mais prováveis e o log de probabilidade, nesta posição específica de token. Em casos raros, pode haver menos do que o número de pedidos |
|
token
|
top_logprobs.token | string |
O token. |
|
logprob
|
top_logprobs.logprob | number |
A probabilidade logarítmica deste token. |
|
bytes
|
top_logprobs.bytes | array of integer |
Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser |
chatCompletionResponseMessage_2024Feb15Preview
Uma mensagem de conclusão do chat gerada pelo modelo.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
função
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
O papel do autor da mensagem de resposta. |
|
conteúdo
|
content | string |
O conteúdo da mensagem. |
|
contexto
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat adequada. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Estatísticas de utilização do pedido de preenchimento.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Número de tokens no prompt. |
|
completion_tokens
|
completion_tokens | integer |
Número de tokens na conclusão gerada. |
|
total_tokens
|
total_tokens | integer |
Número total de tokens usados na solicitação (prompt + conclusão). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
objecto
|
object | string |
Detalhes do tipo de objeto de resposta |
|
modelo
|
model | string |
O nome do modelo |
|
embedding
|
embedding | array of number |
Uma matriz de flutuadores que representam as incorporações computadas para as entradas fornecidas |
|
prompt_tokens
|
usage.prompt_tokens | integer |
O número de tokens usados na entrada |
|
total_tokens
|
usage.total_tokens | integer |
O total de tokens usados |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
objecto
|
object | string |
Detalhes do tipo de objeto de resposta |
|
modelo
|
model | string |
O nome do modelo |
|
embeddings
|
embeddings | array of array |
Uma matriz com matrizes de floats representando as incorporações computadas da coleção de cadeia de caracteres de entrada |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
O número de tokens usados na entrada |
|
total_tokens
|
usage.total_tokens | integer |
O total de tokens usados |