Compartilhar via


Inferência do Azure AI Foundry

Esta é uma especificação do Swagger de primeira parte para modelos do Azure AI Foundry, especificamente projetado para tarefas de Conclusão de Chat. Atualmente, ele dá suporte apenas ao ponto de extremidade de Conclusões de Chat.

Esse conector está disponível nos seguintes produtos e regiões:

Service Class Regions
Copilot Studio Standard Todas as regiões do Power Automate
Aplicativos Lógicos Standard Todas as regiões de Aplicativos Lógicos
Power Apps Standard Todas as regiões do Power Apps
Power Automate Standard Todas as regiões do Power Automate
Contato
Nome Microsoft
URL https://support.microsoft.com/
Email abapi@microsoft.com
Metadados do conector
Publicador Microsoft
Site https://learn.microsoft.com/en-us/azure/ai-foundry/
Política de privacidade https://privacy.microsoft.com/en-us/privacystatement
Categorias IA

Criando uma conexão

O conector dá suporte aos seguintes tipos de autenticação:

Default Parâmetros para criar conexão. Todas as regiões Compartilhável

Padrão

Aplicável: todas as regiões

Parâmetros para criar conexão.

Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs

Nome Tipo Description Obrigatório
Uri de destino cadeia Especificar o ponto de extremidade de inferência para o modelo foundry Verdade
Chave de API secureString A chave de API para este ponto de extremidade de inferência de modelo Verdade
Nome da implantação do modelo cadeia Especificar o nome da implantação do modelo para o modelo foundry
Nome do modelo base cadeia Especificar o nome do modelo base para o modelo foundry

Limitações

Nome Chamadas Período de renovação
Chamadas à API por conexão 5000 60 segundos

Ações

Criar uma conclusão de chat

Gera uma conclusão para uma conversa, com base nas mensagens fornecidas e na configuração do modelo.

Criar uma conclusão de chat

Gera uma conclusão para uma conversa, com base nas mensagens fornecidas e na configuração do modelo.

Parâmetros

Nome Chave Obrigatório Tipo Description
Versão da API
api-version string

A versão da API a ser usada para este ponto de extremidade de conclusão de chat de modelo.

função
role string

A função do remetente da mensagem (por exemplo, 'user', 'assistant').

conteúdo
content object
temperatura
temperature float

A temperatura de amostragem a ser usada, entre 0 e 1. Valores mais altos tornam a saída mais aleatória.

top_p
top_p float

O parâmetro de amostragem top-p, entre 0 e 1.

número máximo de tokens
max_tokens integer

O número máximo de tokens a serem gerados na resposta.

modelo
model string

Nome da implantação do modelo.

Retornos

Definições

Opção

Nome Caminho Tipo Description
content_filter_results
content_filter_results object

Resultados do filtro de conteúdo aplicado à resposta.

motivo_de_conclusão
finish_reason string

O motivo pelo qual o modelo parou de gerar mais tokens. Os valores possíveis incluem 'stop', 'length', 'content_filter', etc.

indexar
index integer

O índice dessa escolha dentro do conjunto gerado de conclusões.

logprobs
logprobs string

Probabilidades de log associadas a cada token na resposta (se solicitado).

conteúdo
message.content string

O conteúdo da mensagem gerada na conversa. Essa é a resposta à consulta NL do usuário.

refusal
message.refusal string

Se o modelo se recusar a gerar uma mensagem, esse campo descreverá a recusa.

função
message.role string

A função do remetente da mensagem (por exemplo, 'user', 'assistant').

PromptFilterResult

Nome Caminho Tipo Description
prompt_index
prompt_index integer

O índice do prompt na entrada original.

content_filter_results
content_filter_results object

Os metadados do filtro de conteúdo aplicados ao prompt.

CompletionTokensDetails

Detalhes sobre o uso do token para conclusão.

Nome Caminho Tipo Description
accepted_prediction_tokens
accepted_prediction_tokens integer

O número de tokens aceitos como previsões válidas para a resposta.

reasoning_tokens
reasoning_tokens integer

O número de tokens usados para o processo de raciocínio do modelo.

rejected_prediction_tokens
rejected_prediction_tokens integer

O número de tokens rejeitados durante o processo de previsão.

PromptTokensDetails

Detalhes sobre os tokens usados no prompt.

Nome Caminho Tipo Description
cached_tokens
cached_tokens integer

O número de tokens que foram armazenados em cache e reutilizados para o prompt.

Usage

Detalhes de uso do token para a solicitação, incluindo tokens de prompt e de conclusão.

Nome Caminho Tipo Description
completion_tokens
completion_tokens integer

O número de tokens consumidos pela conclusão.

completion_tokens_details
completion_tokens_details CompletionTokensDetails

Detalhes sobre o uso do token para conclusão.

prompt_tokens
prompt_tokens integer

O número de tokens consumidos pelo prompt.

prompt_tokens_details
prompt_tokens_details PromptTokensDetails

Detalhes sobre os tokens usados no prompt.

total_tokens
total_tokens integer

O número total de tokens consumidos por toda a solicitação (prompt + conclusão).

ChatCompletionResponse

Nome Caminho Tipo Description
choices
choices array of Choice

A lista de conclusões geradas para o prompt especificado.

id
id string

Um identificador exclusivo para a solicitação de conclusão do chat.

modelo
model string

O modelo usado para gerar a conclusão do chat.

prompt_filter_results
prompt_filter_results array of PromptFilterResult

Os resultados do filtro de conteúdo para cada prompt na solicitação.

uso
usage Usage

Detalhes de uso do token para a solicitação, incluindo tokens de prompt e de conclusão.