Compartir a través de


Inferencia de Azure AI Foundry

Se trata de una especificación de Swagger de primera entidad para los modelos de Azure AI Foundry, específicamente diseñados para tareas de finalización de chat. Actualmente solo admite el punto de conexión Finalizaciones de chat.

Este conector está disponible en los siguientes productos y regiones:

Service Class Regions
Copilot Studio Estándar Todas las regiones de Power Automate
Aplicaciones lógicas Estándar Todas las regiones de Logic Apps
Power Apps Estándar Todas las regiones de Power Apps
Power Automate Estándar Todas las regiones de Power Automate
Contacto
Nombre Microsoft
URL https://support.microsoft.com/
Correo Electrónico abapi@microsoft.com
Metadatos del conector
Publicador Microsoft
Sitio web https://learn.microsoft.com/en-us/azure/ai-foundry/
Directiva de privacidad https://privacy.microsoft.com/en-us/privacystatement
Categorías AI

Creación de una conexión

El conector admite los siguientes tipos de autenticación:

Predeterminado Parámetros para crear una conexión. Todas las regiones Compartible

Predeterminado

Aplicable: Todas las regiones

Parámetros para crear una conexión.

Se trata de una conexión que se puede compartir. Si la aplicación de energía se comparte con otro usuario, también se comparte la conexión. Para más información, consulte introducción a los conectores para aplicaciones de lienzo: Power Apps | Microsoft Docs

Nombre Tipo Description Obligatorio
Uri de destino cuerda / cadena Especificar el punto de conexión de inferencia para el modelo Foundry Cierto
Clave de API securestring La clave de API para este punto de conexión de inferencia de modelo Cierto
Nombre de implementación del modelo cuerda / cadena Especificar el nombre de implementación del modelo para el modelo Foundry
Nombre del modelo base cuerda / cadena Especificar el nombre del modelo base para el modelo Foundry

Limitaciones

Nombre Llamadas Período de renovación
Llamadas API por conexión 5000 60 segundos

Acciones

Creación de una finalización de chat

Genera una finalización para una conversación, en función de los mensajes y la configuración del modelo proporcionados.

Creación de una finalización de chat

Genera una finalización para una conversación, en función de los mensajes y la configuración del modelo proporcionados.

Parámetros

Nombre Clave Requerido Tipo Description
Versión de API
api-version string

Versión de la API que se va a usar para este punto de conexión de finalizaciones de chat del modelo.

role
role string

Rol del remitente del mensaje (por ejemplo, "usuario", "asistente").

contenido
content object
temperatura
temperature float

Temperatura de muestreo que se va a usar, entre 0 y 1. Los valores más altos hacen que la salida sea más aleatoria.

top_p
top_p float

Parámetro de muestreo top-p, entre 0 y 1.

max_tokens
max_tokens integer

El número máximo de tokens a generar en la respuesta.

model
model string

Nombre de implementación del modelo.

Devoluciones

Definiciones

Choice

Nombre Ruta de acceso Tipo Description
content_filter_results
content_filter_results object

Resultados del filtro de contenido aplicado a la respuesta.

razón de finalización
finish_reason string

Motivo por el que el modelo dejó de generar más tokens. Entre los valores posibles se incluyen "stop", "length", "content_filter", etc.

index
index integer

Índice de esta elección dentro del conjunto generado de finalizaciones.

logprobs
logprobs string

Registrar probabilidades asociadas a cada token en la respuesta (si se solicita).

contenido
message.content string

Contenido del mensaje generado en la conversación. Esta es la respuesta a la consulta NL del usuario.

refusal
message.refusal string

Si el modelo se niega a generar un mensaje, este campo describe la denegación.

role
message.role string

Rol del remitente del mensaje (por ejemplo, "usuario", "asistente").

PromptFilterResult

Nombre Ruta de acceso Tipo Description
prompt_index
prompt_index integer

Índice del símbolo del sistema en la entrada original.

content_filter_results
content_filter_results object

Metadatos del filtro de contenido aplicados al símbolo del sistema.

CompletionTokensDetails

Detalles sobre el uso del token para la finalización.

Nombre Ruta de acceso Tipo Description
accepted_prediction_tokens
accepted_prediction_tokens integer

Número de tokens aceptados como predicciones válidas para la respuesta.

reasoning_tokens
reasoning_tokens integer

Número de tokens usados para el proceso de razonamiento del modelo.

rejected_prediction_tokens
rejected_prediction_tokens integer

Número de tokens rechazados durante el proceso de predicción.

PromptTokensDetails

Detalles sobre los tokens usados en el símbolo del sistema.

Nombre Ruta de acceso Tipo Description
cached_tokens
cached_tokens integer

Número de tokens almacenados en caché y reutilizados para el símbolo del sistema.

Usage

Detalles de uso de tokens para la solicitud, incluidos los tokens de solicitud y finalización.

Nombre Ruta de acceso Tipo Description
completion_tokens
completion_tokens integer

Número de tokens consumidos por la finalización.

completion_tokens_details
completion_tokens_details CompletionTokensDetails

Detalles sobre el uso del token para la finalización.

prompt_tokens
prompt_tokens integer

Número de tokens consumidos por el símbolo del sistema.

prompt_tokens_details
prompt_tokens_details PromptTokensDetails

Detalles sobre los tokens usados en el símbolo del sistema.

total_tokens
total_tokens integer

Número total de tokens consumidos por toda la solicitud (símbolo del sistema y finalización).

ChatCompletionResponse

Nombre Ruta de acceso Tipo Description
choices
choices array of Choice

Lista de finalizaciones generadas para el símbolo del sistema especificado.

id
id string

Identificador único para la solicitud de finalización del chat.

model
model string

Modelo que se usa para generar la finalización del chat.

prompt_filter_results
prompt_filter_results array of PromptFilterResult

Los resultados del filtro de contenido para cada solicitud de la solicitud.

usage
usage Usage

Detalles de uso de tokens para la solicitud, incluidos los tokens de solicitud y finalización.