Compartir a través de


Azure OpenAI (versión preliminar)

Integrar fácilmente las funcionalidades de inteligencia artificial de vanguardia de Azure OpenAI en los flujos de trabajo

Este conector está disponible en los siguientes productos y regiones:

Service Class Regions
Copilot Studio Premium Todas las regiones de Power Automate excepto las siguientes:
     - Gobierno de EE. UU. (GCC)
     - Gobierno de EE. UU. (GCC High)
     - China Cloud operado por 21Vianet
     - Departamento de Defensa de EE. UU. (DoD)
Aplicaciones lógicas Estándar Todas las regiones de Logic Apps excepto las siguientes:
     - Regiones de Azure Government
     - Regiones de Azure China
     - Departamento de Defensa de EE. UU. (DoD)
Power Apps Premium Todas las regiones de Power Apps excepto las siguientes:
     - Gobierno de EE. UU. (GCC)
     - Gobierno de EE. UU. (GCC High)
     - China Cloud operado por 21Vianet
     - Departamento de Defensa de EE. UU. (DoD)
Power Automate Premium Todas las regiones de Power Automate excepto las siguientes:
     - Gobierno de EE. UU. (GCC)
     - Gobierno de EE. UU. (GCC High)
     - China Cloud operado por 21Vianet
     - Departamento de Defensa de EE. UU. (DoD)
Contacto
Nombre Microsoft
URL https://support.microsoft.com
Metadatos del conector
Publicador Microsoft
Sitio web https://azure.microsoft.com/en-us/products/cognitive-services/openai-service
Directiva de privacidad https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
Categorías IA; Business Intelligence

Creación de una conexión

El conector admite los siguientes tipos de autenticación:

Clave de API Proporcione el nombre del recurso de Azure OpenAI y la clave de API para acceder a Azure OpenAI que hospeda el modelo de IA. Todas las regiones Compartible
Identidad administrada de Logic Apps Creación de una conexión mediante una identidad administrada de LogicApps Solo LOGICAPPS Compartible
Valor predeterminado [EN DESUSO] Esta opción solo es para conexiones anteriores sin un tipo de autenticación explícito y solo se proporciona para la compatibilidad con versiones anteriores. Todas las regiones No se puede compartir

Clave de API

Identificador de autenticación: keyBasedAuth

Aplicable: Todas las regiones

Proporcione el nombre del recurso de Azure OpenAI y la clave de API para acceder a Azure OpenAI que hospeda el modelo de IA.

Se trata de una conexión que se puede compartir. Si la aplicación de energía se comparte con otro usuario, también se comparte la conexión. Para más información, consulte introducción a los conectores para aplicaciones de lienzo: Power Apps | Microsoft Docs

Nombre Tipo Description Obligatorio
El nombre del recurso de Azure OpenAI cuerda / cadena Nombre del recurso de Azure OpenAI que hospeda el modelo de IA Cierto
Clave de API de Azure OpenAI securestring La clave de API para acceder al recurso de Azure OpenAI que hospeda el modelo de IA Cierto
Dirección URL del punto de conexión de Azure Cognitive Search cuerda / cadena Dirección URL del punto de conexión de Azure Cognitive Search que indexa los datos.
Clave de API de Azure Cognitive Search securestring Clave de API para acceder al punto de conexión de Azure Cognitive Search que indexa los datos.

Identidad administrada de Logic Apps

Identificador de autenticación: managedIdentityAuth

Aplicable: SOLO LOGICAPPS

Creación de una conexión mediante una identidad administrada de LogicApps

Se trata de una conexión que se puede compartir. Si la aplicación de energía se comparte con otro usuario, también se comparte la conexión. Para más información, consulte introducción a los conectores para aplicaciones de lienzo: Power Apps | Microsoft Docs

Nombre Tipo Description Obligatorio
Identidad administrada de LogicApps managedIdentity Inicio de sesión con una identidad administrada de Logic Apps Cierto
El nombre del recurso de Azure OpenAI cuerda / cadena Nombre del recurso de Azure OpenAI que hospeda el modelo de IA Cierto

Valor predeterminado [EN DESUSO]

Aplicable: Todas las regiones

Esta opción solo es para conexiones anteriores sin un tipo de autenticación explícito y solo se proporciona para la compatibilidad con versiones anteriores.

Esta conexión no se puede compartir. Si la aplicación de energía se comparte con otro usuario, se pedirá a otro usuario que cree explícitamente una nueva conexión.

Nombre Tipo Description Obligatorio
El nombre del recurso de Azure OpenAI cuerda / cadena Nombre del recurso de Azure OpenAI que hospeda el modelo de IA Cierto
Clave de API de Azure OpenAI securestring La clave de API para acceder al recurso de Azure OpenAI que hospeda el modelo de IA Cierto
Dirección URL del punto de conexión de Azure Cognitive Search cuerda / cadena Dirección URL del punto de conexión de Azure Cognitive Search que indexa los datos.
Clave de API de Azure Cognitive Search securestring Clave de API para acceder al punto de conexión de Azure Cognitive Search que indexa los datos.

Limitaciones

Nombre Llamadas Período de renovación
Llamadas API por conexión 1000 60 segundos

Acciones

Crea una finalización para el mensaje de chat

Crea una finalización para el mensaje de chat

Obtención de varias incrustaciones

Obtener representaciones vectoriales de una matriz determinada de entradas que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.

Obtener una inserción

Obtener una representación vectorial de una entrada determinada que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.

Uso de extensiones para crear una finalización de mensajes de chat

Uso de extensiones para crear una finalización de mensajes de chat

Crea una finalización para el mensaje de chat

Crea una finalización para el mensaje de chat

Parámetros

Nombre Clave Requerido Tipo Description
Identificador de implementación del modelo implementado
deployment-id True string

Identificador de implementación del modelo implementado

Versión de API
api-version True string

Versión de API

temperatura
temperature number

Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Por lo general, recomendamos modificar esto o top_p, pero no ambos.

top_p
top_p number

Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. Por lo general, recomendamos modificar esto o temperature, pero no ambos.

flujo
stream boolean

Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de data: [DONE].

stop
stop array of string

Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.

max_tokens
max_tokens integer

Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso).

presence_penalty
presence_penalty number

Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas.

frequency_penalty
frequency_penalty number

Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente.

logit_bias
logit_bias object

Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente.

user
user string

Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos.

role
role True string

Rol del autor de mensajes.

contenido
content True string

Matriz de elementos de contenido con un tipo definido, cada uno puede ser de tipo text.

type
type True string

Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto se usará mediante una solicitud de finalizaciones de chat que debe usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI.

top_n_documents
top_n_documents integer

El número superior configurado de documentos que se van a presentar para la consulta configurada.

in_scope
in_scope boolean

Si las consultas deben restringirse al uso de datos indexados.

strictness
strictness integer

La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta.

información del rol
role_information string

Proporcione instrucciones al modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens.

nombre_del_indice
index_name True string

El nombre del índice a utilizar como disponible en el recurso de Azure Search referenciado.

campo_de_título
title_field string

Nombre del campo de índice que se va a usar como título.

campo_url
url_field string

Nombre del campo de índice que se va a usar como dirección URL.

campo_ruta_archivo
filepath_field string

Nombre del campo de índice que se va a usar como ruta de acceso de archivo.

campos_de_contenido
content_fields array of string

Nombre de los campos de índice que se deben tratar como contenido.

separador_de_campos_de_contenido
content_fields_separator string

Patrón separador que deben usar los campos de contenido.

campos vectoriales
vector_fields array of string

Los nombres de los campos que representan datos vectoriales.

tipo_de_consulta
query_type string

Tipo de consulta de recuperación de Azure Search que se debe ejecutar al usarlo como una instancia de Azure OpenAI en los datos.

configuración semántica
semantic_configuration string

Configuración semántica adicional para la consulta.

filtro
filter string

Filtro de búsqueda.

type
type string

Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con la vector de búsqueda.

nombre_de_despliegue
deployment_name True string

Especifica el nombre de la implementación de modelo que se va a usar para la vectorización. Esta implementación del modelo debe estar en el mismo recurso de Azure OpenAI, pero En los datos usará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que permite el vector de búsqueda incluso en redes privadas.

n
n integer

Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada.

seed
seed integer

Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos seed parámetros y deben devolver el mismo resultado. El determinismo no está garantizado y debe hacer referencia al system_fingerprint parámetro de respuesta para supervisar los cambios en el back-end.

logprobs
logprobs boolean

Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el content de message. Esta opción no está disponible actualmente en el gpt-4-vision-preview modelo.

top_logprobs
top_logprobs integer

Entero entre 0 y 5 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada. logprobs debe establecerse en true si se usa este parámetro.

type
type string

Establecer en json_object habilita el modo JSON. Esto garantiza que el mensaje que genera el modelo es JSON válido.

Devoluciones

Obtención de varias incrustaciones

Obtener representaciones vectoriales de una matriz determinada de entradas que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.

Parámetros

Nombre Clave Requerido Tipo Description
Identificador de implementación del modelo implementado
deployment-id True string

Identificador de implementación del modelo implementado

Versión de API
api-version True string

Versión de API

entrada
input True array of string

Matriz de textos de entrada para las que se van a insertar, codificadas como una cadena. Cada cadena de entrada no debe superar los 2048 tokens de longitud

user
user string

Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos.

input_type
input_type string

Tipo de entrada de búsqueda de inserción que se va a usar.

Devoluciones

Obtener una inserción

Obtener una representación vectorial de una entrada determinada que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.

Parámetros

Nombre Clave Requerido Tipo Description
Identificador de implementación del modelo implementado
deployment-id True string

Identificador de implementación del modelo implementado

Versión de API
api-version True string

Versión de API

entrada
input True string

Texto de entrada para obtener incrustaciones para, codificadas como una cadena. La cadena de entrada no debe superar los 2048 tokens de longitud

user
user string

Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos.

input_type
input_type string

Tipo de entrada de búsqueda de inserción que se va a usar.

Devoluciones

Uso de extensiones para crear una finalización de mensajes de chat

Uso de extensiones para crear una finalización de mensajes de chat

Parámetros

Nombre Clave Requerido Tipo Description
Identificador de implementación del modelo implementado
deployment-id True string

Identificador de implementación del modelo implementado

Confirmar el identificador de implementación del modelo implementado
deploymentId True string

Confirmar el identificador de implementación del modelo implementado

Versión de API
api-version True string

Versión de API

index
index integer

Índice del mensaje en la conversación.

role
role True string

Rol del autor de este mensaje.

destinatario
recipient string

Destinatario del mensaje en el formato del espacio de <nombres>.<operation>. Presente si y solo si el destinatario es una herramienta.

contenido
content True string

Contenido del mensaje

end_turn
end_turn boolean

Indica si el mensaje finaliza el turno.

type
type True string

Tipo de origen de datos.

parameters
parameters object

Parámetros que se usarán para el origen de datos en tiempo de ejecución.

temperatura
temperature number

Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista. Por lo general, recomendamos modificar esto o top_p, pero no ambos.

top_p
top_p number

Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. Por lo general, recomendamos modificar esto o temperature, pero no ambos.

flujo
stream boolean

Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de data: [DONE].

stop
stop array of string

Tamaño mínimo de matriz de 1 y máximo de 4

max_tokens
max_tokens integer

Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso).

presence_penalty
presence_penalty number

Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas.

frequency_penalty
frequency_penalty number

Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente.

logit_bias
logit_bias object

Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente.

user
user string

Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos.

Devoluciones

Respuesta de las finalizaciones de chat de extensiones.

Definiciones

Message

Un mensaje de chat.

Nombre Ruta de acceso Tipo Description
index
index integer

Índice del mensaje en la conversación.

role
role string

Rol del autor de este mensaje.

destinatario
recipient string

Destinatario del mensaje en el formato del espacio de <nombres>.<operation>. Presente si y solo si el destinatario es una herramienta.

contenido
content string

Contenido del mensaje

end_turn
end_turn boolean

Indica si el mensaje finaliza el turno.

ExtensionsChatCompletionsResponse

Respuesta de las finalizaciones de chat de extensiones.

Nombre Ruta de acceso Tipo Description
id
id string
objeto
object string
creado
created integer
model
model string
prompt_filter_results
prompt_filter_results promptFilterResults

Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.

prompt_tokens
usage.prompt_tokens integer
completion_tokens
usage.completion_tokens integer
total_tokens
usage.total_tokens integer
choices
choices array of ExtensionsChatCompletionChoice

ExtensionsChatCompletionChoice

Nombre Ruta de acceso Tipo Description
index
index integer
razón de finalización
finish_reason string
content_filter_results
content_filter_results contentFilterResults

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no.

messages
messages array of Message

Lista de mensajes devueltos por el servicio.

contentFilterResult

Nombre Ruta de acceso Tipo Description
severity
severity string
filtered
filtered boolean

contentFilterResults

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no.

Nombre Ruta de acceso Tipo Description
sexual
sexual contentFilterResult
violence
violence contentFilterResult
hate
hate contentFilterResult
self_harm
self_harm contentFilterResult
error
error errorBase

promptFilterResult

Resultados de filtrado de contenido para una sola solicitud en la solicitud.

Nombre Ruta de acceso Tipo Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterResults

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no.

promptFilterResults

Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.

Nombre Ruta de acceso Tipo Description
Productos
promptFilterResult

Resultados de filtrado de contenido para una sola solicitud en la solicitud.

errorBase

Nombre Ruta de acceso Tipo Description
código
code string
Mensaje
message string

errorBase_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
código
code string
Mensaje
message string

contentFilterSeverityResult_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
filtered
filtered boolean
severity
severity string

contentFilterDetectedResult_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
filtered
filtered boolean
detected
detected boolean

contentFilterDetectedWithCitationResult_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
filtered
filtered boolean
detected
detected boolean
URL
citation.URL string
license
citation.license string

contentFilterIdResult_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
id
id string
filtered
filtered boolean

contentFilterPromptResults_2024Feb15Preview

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id.

Nombre Ruta de acceso Tipo Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
error
error errorBase_2024Feb15Preview
jailbreak
jailbreak contentFilterDetectedResult_2024Feb15Preview

contentFilterChoiceResults_2024Feb15Preview

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id.

Nombre Ruta de acceso Tipo Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
error
error errorBase_2024Feb15Preview
protected_material_text
protected_material_text contentFilterDetectedResult_2024Feb15Preview
protected_material_code
protected_material_code contentFilterDetectedWithCitationResult_2024Feb15Preview

promptFilterResult_2024Feb15Preview

Resultados de filtrado de contenido para una sola solicitud en la solicitud.

Nombre Ruta de acceso Tipo Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterPromptResults_2024Feb15Preview

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id.

promptFilterResults_2024Feb15Preview

Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.

Nombre Ruta de acceso Tipo Description
Productos
promptFilterResult_2024Feb15Preview

Resultados de filtrado de contenido para una sola solicitud en la solicitud.

azureChatExtensionsMessageContext_2024Feb15Preview

Representación de la información de contexto adicional disponible cuando las extensiones de chat de Azure OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud de Azure OpenAI configurada para usar una extensión coincidente.

Nombre Ruta de acceso Tipo Description
citations
citations array of citation_2024Feb15Preview

Resultado de la recuperación del origen de datos, que se usa para generar el mensaje del asistente en la respuesta.

intención
intent string

La intención detectada del historial de chat, que se usa para pasar al siguiente turno para llevar el contexto.

citation_2024Feb15Preview

información de cita para un mensaje de respuesta de finalizaciones de chat.

Nombre Ruta de acceso Tipo Description
contenido
content string

Contenido de la cita.

title
title string

Título de la cita.

URL
url string

Dirección URL de la cita.

ruta de acceso al archivo
filepath string

Ruta de acceso del archivo de la cita.

identificador_de_fragmento
chunk_id string

Identificador del fragmento de la cita.

createChatCompletionResponse_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
id
id string

Identificador único para la finalización del chat.

objeto
object chatCompletionResponseObject_2024Feb15Preview

Tipo de objeto.

creado
created integer

Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat.

model
model string

Modelo usado para la finalización de chat.

usage
usage completionUsage_2024Feb15Preview

Estadísticas de uso de la solicitud de finalización.

system_fingerprint
system_fingerprint string

Se puede usar junto con el parámetro de solicitud seed para comprender cuándo se han realizado cambios de back-end que podrían afectar al determinismo.

prompt_filter_results
prompt_filter_results promptFilterResults_2024Feb15Preview

Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.

choices
choices array of object
index
choices.index integer
razón de finalización
choices.finish_reason string
Mensaje
choices.message chatCompletionResponseMessage_2024Feb15Preview

Mensaje de finalización del chat generado por el modelo.

content_filter_results
choices.content_filter_results contentFilterChoiceResults_2024Feb15Preview

Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id.

logprobs
choices.logprobs chatCompletionChoiceLogProbs_2024Feb15Preview

Registre la información de probabilidad para la elección.

chatCompletionChoiceLogProbs_2024Feb15Preview

Registre la información de probabilidad para la elección.

Nombre Ruta de acceso Tipo Description
contenido
content array of chatCompletionTokenLogprob_2024Feb15Preview

Lista de tokens de contenido de mensajes con información de probabilidad de registro.

chatCompletionTokenLogprob_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
token
token string

El token.

logprob
logprob number

Probabilidad de registro de este token.

bytes
bytes array of integer

Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser null si no hay ninguna representación de bytes para el token.

top_logprobs
top_logprobs array of object

Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede que se devuelvan menos top_logprobs de los solicitados.

token
top_logprobs.token string

El token.

logprob
top_logprobs.logprob number

Probabilidad de registro de este token.

bytes
top_logprobs.bytes array of integer

Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser null si no hay ninguna representación de bytes para el token.

chatCompletionResponseMessage_2024Feb15Preview

Mensaje de finalización del chat generado por el modelo.

Nombre Ruta de acceso Tipo Description
role
role chatCompletionResponseMessageRole_2024Feb15Preview

Rol del autor del mensaje de respuesta.

contenido
content string

Contenido del mensaje.

context
context azureChatExtensionsMessageContext_2024Feb15Preview

Representación de la información de contexto adicional disponible cuando las extensiones de chat de Azure OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud de Azure OpenAI configurada para usar una extensión coincidente.

chatCompletionResponseMessageRole_2024Feb15Preview

Rol del autor del mensaje de respuesta.

Rol del autor del mensaje de respuesta.

chatCompletionResponseObject_2024Feb15Preview

Tipo de objeto.

Tipo de objeto.

completionUsage_2024Feb15Preview

Estadísticas de uso de la solicitud de finalización.

Nombre Ruta de acceso Tipo Description
prompt_tokens
prompt_tokens integer

Número de tokens en el símbolo del sistema.

completion_tokens
completion_tokens integer

Número de tokens en la finalización generada.

total_tokens
total_tokens integer

Número total de tokens usados en la solicitud (solicitud + finalización).

getSingleEmbeddingsResponse_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
objeto
object string

Detalles del tipo de objeto de respuesta

model
model string

El nombre del modelo

embedding
embedding array of number

Matriz de floats que representan las incrustaciones calculadas para las entradas especificadas

prompt_tokens
usage.prompt_tokens integer

Número de tokens usados en la entrada

total_tokens
usage.total_tokens integer

El total de tokens usados

getMultipleEmbeddingsResponse_2024Feb15Preview

Nombre Ruta de acceso Tipo Description
objeto
object string

Detalles del tipo de objeto de respuesta

model
model string

El nombre del modelo

embeddings
embeddings array of array

Matriz con matrices de floats que representan las incrustaciones calculadas de la colección de cadenas de entrada

items
embeddings array of number
prompt_tokens
usage.prompt_tokens integer

Número de tokens usados en la entrada

total_tokens
usage.total_tokens integer

El total de tokens usados