Azure OpenAI (versión preliminar)
Integrar fácilmente las funcionalidades de inteligencia artificial de vanguardia de Azure OpenAI en los flujos de trabajo
Este conector está disponible en los siguientes productos y regiones:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Todas las regiones de Power Automate excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Aplicaciones lógicas | Estándar | Todas las regiones de Logic Apps excepto las siguientes: - Regiones de Azure Government - Regiones de Azure China - Departamento de Defensa de EE. UU. (DoD) |
| Power Apps | Premium | Todas las regiones de Power Apps excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Power Automate | Premium | Todas las regiones de Power Automate excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Contacto | |
|---|---|
| Nombre | Microsoft |
| URL | https://support.microsoft.com |
| Metadatos del conector | |
|---|---|
| Publicador | Microsoft |
| Sitio web | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Directiva de privacidad | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Categorías | IA; Business Intelligence |
Creación de una conexión
El conector admite los siguientes tipos de autenticación:
| Clave de API | Proporcione el nombre del recurso de Azure OpenAI y la clave de API para acceder a Azure OpenAI que hospeda el modelo de IA. | Todas las regiones | Compartible |
| Identidad administrada de Logic Apps | Creación de una conexión mediante una identidad administrada de LogicApps | Solo LOGICAPPS | Compartible |
| Valor predeterminado [EN DESUSO] | Esta opción solo es para conexiones anteriores sin un tipo de autenticación explícito y solo se proporciona para la compatibilidad con versiones anteriores. | Todas las regiones | No se puede compartir |
Clave de API
Identificador de autenticación: keyBasedAuth
Aplicable: Todas las regiones
Proporcione el nombre del recurso de Azure OpenAI y la clave de API para acceder a Azure OpenAI que hospeda el modelo de IA.
Se trata de una conexión que se puede compartir. Si la aplicación de energía se comparte con otro usuario, también se comparte la conexión. Para más información, consulte introducción a los conectores para aplicaciones de lienzo: Power Apps | Microsoft Docs
| Nombre | Tipo | Description | Obligatorio |
|---|---|---|---|
| El nombre del recurso de Azure OpenAI | cuerda / cadena | Nombre del recurso de Azure OpenAI que hospeda el modelo de IA | Cierto |
| Clave de API de Azure OpenAI | securestring | La clave de API para acceder al recurso de Azure OpenAI que hospeda el modelo de IA | Cierto |
| Dirección URL del punto de conexión de Azure Cognitive Search | cuerda / cadena | Dirección URL del punto de conexión de Azure Cognitive Search que indexa los datos. | |
| Clave de API de Azure Cognitive Search | securestring | Clave de API para acceder al punto de conexión de Azure Cognitive Search que indexa los datos. |
Identidad administrada de Logic Apps
Identificador de autenticación: managedIdentityAuth
Aplicable: SOLO LOGICAPPS
Creación de una conexión mediante una identidad administrada de LogicApps
Se trata de una conexión que se puede compartir. Si la aplicación de energía se comparte con otro usuario, también se comparte la conexión. Para más información, consulte introducción a los conectores para aplicaciones de lienzo: Power Apps | Microsoft Docs
| Nombre | Tipo | Description | Obligatorio |
|---|---|---|---|
| Identidad administrada de LogicApps | managedIdentity | Inicio de sesión con una identidad administrada de Logic Apps | Cierto |
| El nombre del recurso de Azure OpenAI | cuerda / cadena | Nombre del recurso de Azure OpenAI que hospeda el modelo de IA | Cierto |
Valor predeterminado [EN DESUSO]
Aplicable: Todas las regiones
Esta opción solo es para conexiones anteriores sin un tipo de autenticación explícito y solo se proporciona para la compatibilidad con versiones anteriores.
Esta conexión no se puede compartir. Si la aplicación de energía se comparte con otro usuario, se pedirá a otro usuario que cree explícitamente una nueva conexión.
| Nombre | Tipo | Description | Obligatorio |
|---|---|---|---|
| El nombre del recurso de Azure OpenAI | cuerda / cadena | Nombre del recurso de Azure OpenAI que hospeda el modelo de IA | Cierto |
| Clave de API de Azure OpenAI | securestring | La clave de API para acceder al recurso de Azure OpenAI que hospeda el modelo de IA | Cierto |
| Dirección URL del punto de conexión de Azure Cognitive Search | cuerda / cadena | Dirección URL del punto de conexión de Azure Cognitive Search que indexa los datos. | |
| Clave de API de Azure Cognitive Search | securestring | Clave de API para acceder al punto de conexión de Azure Cognitive Search que indexa los datos. |
Limitaciones
| Nombre | Llamadas | Período de renovación |
|---|---|---|
| Llamadas API por conexión | 1000 | 60 segundos |
Acciones
| Crea una finalización para el mensaje de chat |
Crea una finalización para el mensaje de chat |
| Obtención de varias incrustaciones |
Obtener representaciones vectoriales de una matriz determinada de entradas que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente. |
| Obtener una inserción |
Obtener una representación vectorial de una entrada determinada que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente. |
| Uso de extensiones para crear una finalización de mensajes de chat |
Uso de extensiones para crear una finalización de mensajes de chat |
Crea una finalización para el mensaje de chat
Crea una finalización para el mensaje de chat
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Identificador de implementación del modelo implementado
|
deployment-id | True | string |
Identificador de implementación del modelo implementado |
|
Versión de API
|
api-version | True | string |
Versión de API |
|
temperatura
|
temperature | number |
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o |
|
|
top_p
|
top_p | number |
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o |
|
|
flujo
|
stream | boolean |
Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de |
|
|
stop
|
stop | array of string |
Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
|
|
max_tokens
|
max_tokens | integer |
Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). |
|
|
presence_penalty
|
presence_penalty | number |
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. |
|
|
frequency_penalty
|
frequency_penalty | number |
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. |
|
|
logit_bias
|
logit_bias | object |
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. |
|
|
user
|
user | string |
Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. |
|
|
role
|
role | True | string |
Rol del autor de mensajes. |
|
contenido
|
content | True | string |
Matriz de elementos de contenido con un tipo definido, cada uno puede ser de tipo |
|
type
|
type | True | string |
Representación de los datos de configuración para una única extensión de chat de Azure OpenAI. Esto se usará mediante una solicitud de finalizaciones de chat que debe usar extensiones de chat de Azure OpenAI para aumentar el comportamiento de la respuesta. El uso de esta configuración solo es compatible con Azure OpenAI. |
|
top_n_documents
|
top_n_documents | integer |
El número superior configurado de documentos que se van a presentar para la consulta configurada. |
|
|
in_scope
|
in_scope | boolean |
Si las consultas deben restringirse al uso de datos indexados. |
|
|
strictness
|
strictness | integer |
La configuración estricta del filtrado de relevancia de búsqueda. Cuanto más estricta sea, mayor será la precisión, pero una menor coincidencia de la respuesta. |
|
|
información del rol
|
role_information | string |
Proporcione instrucciones al modelo sobre cómo debe comportarse y cualquier contexto al que debe hacer referencia al generar una respuesta. Puede describir la personalidad del asistente y indicarle cómo dar formato a las respuestas. Hay un límite de 100 tokens para él y cuenta con respecto al límite total de tokens. |
|
|
nombre_del_indice
|
index_name | True | string |
El nombre del índice a utilizar como disponible en el recurso de Azure Search referenciado. |
|
campo_de_título
|
title_field | string |
Nombre del campo de índice que se va a usar como título. |
|
|
campo_url
|
url_field | string |
Nombre del campo de índice que se va a usar como dirección URL. |
|
|
campo_ruta_archivo
|
filepath_field | string |
Nombre del campo de índice que se va a usar como ruta de acceso de archivo. |
|
|
campos_de_contenido
|
content_fields | array of string |
Nombre de los campos de índice que se deben tratar como contenido. |
|
|
separador_de_campos_de_contenido
|
content_fields_separator | string |
Patrón separador que deben usar los campos de contenido. |
|
|
campos vectoriales
|
vector_fields | array of string |
Los nombres de los campos que representan datos vectoriales. |
|
|
tipo_de_consulta
|
query_type | string |
Tipo de consulta de recuperación de Azure Search que se debe ejecutar al usarlo como una instancia de Azure OpenAI en los datos. |
|
|
configuración semántica
|
semantic_configuration | string |
Configuración semántica adicional para la consulta. |
|
|
filtro
|
filter | string |
Filtro de búsqueda. |
|
|
type
|
type | string |
Representa los orígenes disponibles que Azure OpenAI en los datos puede usar para configurar la vectorización de datos para su uso con la vector de búsqueda. |
|
|
nombre_de_despliegue
|
deployment_name | True | string |
Especifica el nombre de la implementación de modelo que se va a usar para la vectorización. Esta implementación del modelo debe estar en el mismo recurso de Azure OpenAI, pero En los datos usará esta implementación de modelo a través de una llamada interna en lugar de una pública, lo que permite el vector de búsqueda incluso en redes privadas. |
|
n
|
n | integer |
Cuántas opciones de finalización de chat se van a generar para cada mensaje de entrada. |
|
|
seed
|
seed | integer |
Si se especifica, nuestro sistema hará un mejor esfuerzo para muestrear de forma determinista, de modo que las solicitudes repetidas con los mismos |
|
|
logprobs
|
logprobs | boolean |
Si se devuelven probabilidades de registro de los tokens de salida o no. Si es true, devuelve las probabilidades de registro de cada token de salida devuelto en el |
|
|
top_logprobs
|
top_logprobs | integer |
Entero entre 0 y 5 que especifica el número de tokens más probables que se devolverán en cada posición del token, cada uno con una probabilidad de registro asociada.
|
|
|
type
|
type | string |
Establecer en |
Devoluciones
Obtención de varias incrustaciones
Obtener representaciones vectoriales de una matriz determinada de entradas que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Identificador de implementación del modelo implementado
|
deployment-id | True | string |
Identificador de implementación del modelo implementado |
|
Versión de API
|
api-version | True | string |
Versión de API |
|
entrada
|
input | True | array of string |
Matriz de textos de entrada para las que se van a insertar, codificadas como una cadena. Cada cadena de entrada no debe superar los 2048 tokens de longitud |
|
user
|
user | string |
Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. |
|
|
input_type
|
input_type | string |
Tipo de entrada de búsqueda de inserción que se va a usar. |
Devoluciones
Obtener una inserción
Obtener una representación vectorial de una entrada determinada que los modelos y algoritmos de aprendizaje automático pueden consumir fácilmente.
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Identificador de implementación del modelo implementado
|
deployment-id | True | string |
Identificador de implementación del modelo implementado |
|
Versión de API
|
api-version | True | string |
Versión de API |
|
entrada
|
input | True | string |
Texto de entrada para obtener incrustaciones para, codificadas como una cadena. La cadena de entrada no debe superar los 2048 tokens de longitud |
|
user
|
user | string |
Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. |
|
|
input_type
|
input_type | string |
Tipo de entrada de búsqueda de inserción que se va a usar. |
Devoluciones
Uso de extensiones para crear una finalización de mensajes de chat
Uso de extensiones para crear una finalización de mensajes de chat
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Identificador de implementación del modelo implementado
|
deployment-id | True | string |
Identificador de implementación del modelo implementado |
|
Confirmar el identificador de implementación del modelo implementado
|
deploymentId | True | string |
Confirmar el identificador de implementación del modelo implementado |
|
Versión de API
|
api-version | True | string |
Versión de API |
|
index
|
index | integer |
Índice del mensaje en la conversación. |
|
|
role
|
role | True | string |
Rol del autor de este mensaje. |
|
destinatario
|
recipient | string |
Destinatario del mensaje en el formato del espacio de <nombres>.<operation>. Presente si y solo si el destinatario es una herramienta. |
|
|
contenido
|
content | True | string |
Contenido del mensaje |
|
end_turn
|
end_turn | boolean |
Indica si el mensaje finaliza el turno. |
|
|
type
|
type | True | string |
Tipo de origen de datos. |
|
parameters
|
parameters | object |
Parámetros que se usarán para el origen de datos en tiempo de ejecución. |
|
|
temperatura
|
temperature | number |
Temperatura de muestreo que se vaya a usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o |
|
|
top_p
|
top_p | number |
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.
Por lo general, recomendamos modificar esto o |
|
|
flujo
|
stream | boolean |
Si se establece, se enviarán deltas de mensajes parciales, como en ChatGPT. Los tokens se enviarán como eventos enviados por el servidor de solo datos a medida que estén disponibles, el flujo terminará con un mensaje de |
|
|
stop
|
stop | array of string |
Tamaño mínimo de matriz de 1 y máximo de 4 |
|
|
max_tokens
|
max_tokens | integer |
Número máximo de tokens permitidos para la respuesta generada. De forma predeterminada, el número de tokens que puede devolver el modelo será (4096: tokens de aviso). |
|
|
presence_penalty
|
presence_penalty | number |
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. |
|
|
frequency_penalty
|
frequency_penalty | number |
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente. |
|
|
logit_bias
|
logit_bias | object |
Modifica la probabilidad de que los tokens especificados aparezcan en la finalización. Acepta un objeto JSON que asignará tokens (especificados por su id. de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se agrega a los logits generados por el modelo antes del muestreo. El efecto exacto variará según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían dar lugar a una prohibición o selección exclusiva del token correspondiente. |
|
|
user
|
user | string |
Identificador único que representa al usuario final y puede ayudar a Azure OpenAI a supervisar y detectar abusos. |
Devoluciones
Respuesta de las finalizaciones de chat de extensiones.
Definiciones
Message
Un mensaje de chat.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
index
|
index | integer |
Índice del mensaje en la conversación. |
|
role
|
role | string |
Rol del autor de este mensaje. |
|
destinatario
|
recipient | string |
Destinatario del mensaje en el formato del espacio de <nombres>.<operation>. Presente si y solo si el destinatario es una herramienta. |
|
contenido
|
content | string |
Contenido del mensaje |
|
end_turn
|
end_turn | boolean |
Indica si el mensaje finaliza el turno. |
ExtensionsChatCompletionsResponse
Respuesta de las finalizaciones de chat de extensiones.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string | |
|
objeto
|
object | string | |
|
creado
|
created | integer | |
|
model
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
total_tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
index
|
index | integer | |
|
razón de finalización
|
finish_reason | string | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. |
|
messages
|
messages | array of Message |
Lista de mensajes devueltos por el servicio. |
contentFilterResult
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
severity
|
severity | string | |
|
filtered
|
filtered | boolean |
contentFilterResults
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
violence
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
self_harm
|
self_harm | contentFilterResult | |
|
error
|
error | errorBase |
promptFilterResult
Resultados de filtrado de contenido para una sola solicitud en la solicitud.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. |
promptFilterResults
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
Productos
|
promptFilterResult |
Resultados de filtrado de contenido para una sola solicitud en la solicitud. |
errorBase
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
código
|
code | string | |
|
Mensaje
|
message | string |
errorBase_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
código
|
code | string | |
|
Mensaje
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
severity
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
license
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string | |
|
filtered
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
error
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
error
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Resultados de filtrado de contenido para una sola solicitud en la solicitud.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre el contenido de jailbreak y las palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id. |
promptFilterResults_2024Feb15Preview
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
Productos
|
promptFilterResult_2024Feb15Preview |
Resultados de filtrado de contenido para una sola solicitud en la solicitud. |
azureChatExtensionsMessageContext_2024Feb15Preview
Representación de la información de contexto adicional disponible cuando las extensiones de chat de Azure OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud de Azure OpenAI configurada para usar una extensión coincidente.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
citations
|
citations | array of citation_2024Feb15Preview |
Resultado de la recuperación del origen de datos, que se usa para generar el mensaje del asistente en la respuesta. |
|
intención
|
intent | string |
La intención detectada del historial de chat, que se usa para pasar al siguiente turno para llevar el contexto. |
citation_2024Feb15Preview
información de cita para un mensaje de respuesta de finalizaciones de chat.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
contenido
|
content | string |
Contenido de la cita. |
|
title
|
title | string |
Título de la cita. |
|
URL
|
url | string |
Dirección URL de la cita. |
|
ruta de acceso al archivo
|
filepath | string |
Ruta de acceso del archivo de la cita. |
|
identificador_de_fragmento
|
chunk_id | string |
Identificador del fragmento de la cita. |
createChatCompletionResponse_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
Identificador único para la finalización del chat. |
|
objeto
|
object | chatCompletionResponseObject_2024Feb15Preview |
Tipo de objeto. |
|
creado
|
created | integer |
Marca de tiempo de Unix (en segundos) de cuando se creó la finalización de chat. |
|
model
|
model | string |
Modelo usado para la finalización de chat. |
|
usage
|
usage | completionUsage_2024Feb15Preview |
Estadísticas de uso de la solicitud de finalización. |
|
system_fingerprint
|
system_fingerprint | string |
Se puede usar junto con el parámetro de solicitud |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Resultados del filtrado de contenido para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de las distintas indicaciones pueden llegar en distintos momentos o en distintos órdenes. |
|
choices
|
choices | array of object | |
|
index
|
choices.index | integer | |
|
razón de finalización
|
choices.finish_reason | string | |
|
Mensaje
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Mensaje de finalización del chat generado por el modelo. |
|
content_filter_results
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Información sobre la categoría de filtrado del contenido (odio, sexual, violencia, autolesiones), si se ha detectado, así como el nivel de gravedad (escala muy_bajo, bajo, medio, alto que determina la intensidad y el nivel de riesgo del contenido nocivo) y si se ha filtrado o no. Información sobre texto de terceros y palabras soeces, si se ha detectado y si se ha filtrado o no. E información sobre la lista de bloqueos de clientes, si se ha filtrado y su id. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Registre la información de probabilidad para la elección. |
chatCompletionChoiceLogProbs_2024Feb15Preview
Registre la información de probabilidad para la elección.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
contenido
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Lista de tokens de contenido de mensajes con información de probabilidad de registro. |
chatCompletionTokenLogprob_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
token
|
token | string |
El token. |
|
logprob
|
logprob | number |
Probabilidad de registro de este token. |
|
bytes
|
bytes | array of integer |
Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser |
|
top_logprobs
|
top_logprobs | array of object |
Lista de los tokens más probables y su probabilidad de registro, en esta posición del token. En raras ocasiones, puede que se devuelvan menos |
|
token
|
top_logprobs.token | string |
El token. |
|
logprob
|
top_logprobs.logprob | number |
Probabilidad de registro de este token. |
|
bytes
|
top_logprobs.bytes | array of integer |
Lista de enteros que representan la representación de bytes UTF-8 del token. Resulta útil en instancias en las que los caracteres se representan mediante varios tokens y sus representaciones de bytes deben combinarse para generar la representación de texto correcta. Puede ser |
chatCompletionResponseMessage_2024Feb15Preview
Mensaje de finalización del chat generado por el modelo.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
role
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
Rol del autor del mensaje de respuesta. |
|
contenido
|
content | string |
Contenido del mensaje. |
|
context
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Representación de la información de contexto adicional disponible cuando las extensiones de chat de Azure OpenAI participan en la generación de una respuesta de finalizaciones de chat correspondiente. Esta información de contexto solo se rellena cuando se usa una solicitud de Azure OpenAI configurada para usar una extensión coincidente. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Estadísticas de uso de la solicitud de finalización.
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Número de tokens en el símbolo del sistema. |
|
completion_tokens
|
completion_tokens | integer |
Número de tokens en la finalización generada. |
|
total_tokens
|
total_tokens | integer |
Número total de tokens usados en la solicitud (solicitud + finalización). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
objeto
|
object | string |
Detalles del tipo de objeto de respuesta |
|
model
|
model | string |
El nombre del modelo |
|
embedding
|
embedding | array of number |
Matriz de floats que representan las incrustaciones calculadas para las entradas especificadas |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Número de tokens usados en la entrada |
|
total_tokens
|
usage.total_tokens | integer |
El total de tokens usados |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
objeto
|
object | string |
Detalles del tipo de objeto de respuesta |
|
model
|
model | string |
El nombre del modelo |
|
embeddings
|
embeddings | array of array |
Matriz con matrices de floats que representan las incrustaciones calculadas de la colección de cadenas de entrada |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Número de tokens usados en la entrada |
|
total_tokens
|
usage.total_tokens | integer |
El total de tokens usados |