Partilhar via


Azure AI Foundry Inference

Esta é uma especificação Swagger de primeira parte para modelos do Azure AI Foundry, especificamente projetada para tarefas de Conclusão de Chat. Atualmente, ele suporta apenas o ponto de extremidade de conclusão de bate-papo.

Este conector está disponível nos seguintes produtos e regiões:

Serviço Class Regiões
Estúdio Copiloto Standard Todas as Power Automate regiões
Aplicações Lógicas Standard Todas as regiões do Logic Apps
Aplicações Power Standard Todas as regiões do Power Apps
Automatize o poder Standard Todas as Power Automate regiões
Contato
Nome Microsoft
URL https://support.microsoft.com/
Email abapi@microsoft.com
Metadados do conector
Editora Microsoft
Sítio Web https://learn.microsoft.com/en-us/azure/ai-foundry/
Política de privacidade https://privacy.microsoft.com/en-us/privacystatement
Categorias IA

A criar uma ligação

O conector suporta os seguintes tipos de autenticação:

Predefinição Parâmetros para criar conexão. Todas as regiões Compartilhável

Padrão

Aplicável: Todas as regiões

Parâmetros para criar conexão.

Esta é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a Visão geral de conectores para aplicativos de tela - Power Apps | Documentos Microsoft

Nome Tipo Description Obrigatório
Uri de destino cadeia (de caracteres) Especificar o ponto de extremidade de inferência para o modelo do Foundry Verdade
Chave de API securestring A chave de API para este ponto de extremidade de inferência de modelo Verdade
Nome da implantação do modelo cadeia (de caracteres) Especifique o nome da implantação do modelo para o modelo do Foundry
Nome do modelo base cadeia (de caracteres) Especifique o nome do modelo base para o modelo Foundry

Limites de Limitação

Name Chamadas Período de Renovação
Chamadas de API por conexão 5000 60 segundos

Ações

Criar uma conclusão de chat

Gera uma conclusão para uma conversa, com base nas mensagens fornecidas e na configuração do modelo.

Criar uma conclusão de chat

Gera uma conclusão para uma conversa, com base nas mensagens fornecidas e na configuração do modelo.

Parâmetros

Name Chave Necessário Tipo Description
Versão da API
api-version string

A versão da API a ser usada para este ponto de extremidade de conclusão de bate-papo de modelo.

função
role string

O papel do remetente da mensagem (por exemplo, 'usuário', 'assistente').

conteúdo
content object
temperatura
temperature float

A temperatura de amostragem a utilizar, entre 0 e 1. Valores mais altos tornam a saída mais aleatória.

top_p
top_p float

O parâmetro de amostragem top-p, entre 0 e 1.

máximo de tokens
max_tokens integer

O número máximo de tokens a gerar na resposta.

modelo
model string

Nome da implantação do modelo.

Devoluções

Definições

Escolha

Name Caminho Tipo Description
content_filter_results
content_filter_results object

Resultados do filtro de conteúdo aplicado à resposta.

motivo_de_finalização
finish_reason string

A razão pela qual o modelo parou de gerar mais tokens. Os valores possíveis incluem 'stop', 'length', 'content_filter', etc.

indexar
index integer

O índice desta escolha dentro do conjunto gerado de completações.

Logprobs
logprobs string

Registre as probabilidades associadas a cada token na resposta (se solicitado).

conteúdo
message.content string

O conteúdo da mensagem gerada na conversa. Esta é a resposta à consulta NL do usuário.

refusal
message.refusal string

Se o modelo se recusar a gerar uma mensagem, este campo descreve a recusa.

função
message.role string

O papel do remetente da mensagem (por exemplo, 'usuário', 'assistente').

PromptFilterResult

Name Caminho Tipo Description
prompt_index
prompt_index integer

O índice do prompt na entrada original.

content_filter_results
content_filter_results object

Os metadados do filtro de conteúdo aplicados ao prompt.

CompletionTokensDetalhes

Detalhes sobre o uso do token para conclusão.

Name Caminho Tipo Description
accepted_prediction_tokens
accepted_prediction_tokens integer

O número de tokens aceitos como previsões válidas para a resposta.

fatores_de_razonamento
reasoning_tokens integer

O número de tokens usados para o processo de raciocínio do modelo.

rejected_prediction_tokens
rejected_prediction_tokens integer

O número de tokens rejeitados durante o processo de previsão.

PromptTokensDetalhes

Detalhes sobre os tokens usados no prompt.

Name Caminho Tipo Description
cached_tokens
cached_tokens integer

O número de tokens que foram armazenados em cache e reutilizados para o prompt.

Usage

Detalhes de uso do token para a solicitação, incluindo tokens de prompt e conclusão.

Name Caminho Tipo Description
completion_tokens
completion_tokens integer

O número de tokens consumidos pela conclusão.

completion_tokens_details
completion_tokens_details CompletionTokensDetails

Detalhes sobre o uso do token para conclusão.

prompt_tokens
prompt_tokens integer

O número de tokens consumidos pelo prompt.

prompt_tokens_details
prompt_tokens_details PromptTokensDetails

Detalhes sobre os tokens usados no prompt.

total_tokens
total_tokens integer

O número total de tokens consumidos por toda a solicitação (prompt + conclusão).

ChatCompletionResponse

Name Caminho Tipo Description
choices
choices array of Choice

A lista de conclusões geradas para o prompt fornecido.

id
id string

Um identificador exclusivo para a solicitação de conclusão do chat.

modelo
model string

O modelo usado para gerar a conclusão do chat.

prompt_filter_results
prompt_filter_results array of PromptFilterResult

O filtro de conteúdo resulta de cada prompt na solicitação.

utilização
usage Usage

Detalhes de uso do token para a solicitação, incluindo tokens de prompt e conclusão.