Azure AI Foundry Inference
Esta é uma especificação Swagger de primeira parte para modelos do Azure AI Foundry, especificamente projetada para tarefas de Conclusão de Chat. Atualmente, ele suporta apenas o ponto de extremidade de conclusão de bate-papo.
Este conector está disponível nos seguintes produtos e regiões:
| Serviço | Class | Regiões |
|---|---|---|
| Estúdio Copiloto | Standard | Todas as Power Automate regiões |
| Aplicações Lógicas | Standard | Todas as regiões do Logic Apps |
| Aplicações Power | Standard | Todas as regiões do Power Apps |
| Automatize o poder | Standard | Todas as Power Automate regiões |
| Contato | |
|---|---|
| Nome | Microsoft |
| URL | https://support.microsoft.com/ |
| abapi@microsoft.com |
| Metadados do conector | |
|---|---|
| Editora | Microsoft |
| Sítio Web | https://learn.microsoft.com/en-us/azure/ai-foundry/ |
| Política de privacidade | https://privacy.microsoft.com/en-us/privacystatement |
| Categorias | IA |
A criar uma ligação
O conector suporta os seguintes tipos de autenticação:
| Predefinição | Parâmetros para criar conexão. | Todas as regiões | Compartilhável |
Padrão
Aplicável: Todas as regiões
Parâmetros para criar conexão.
Esta é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a Visão geral de conectores para aplicativos de tela - Power Apps | Documentos Microsoft
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Uri de destino | cadeia (de caracteres) | Especificar o ponto de extremidade de inferência para o modelo do Foundry | Verdade |
| Chave de API | securestring | A chave de API para este ponto de extremidade de inferência de modelo | Verdade |
| Nome da implantação do modelo | cadeia (de caracteres) | Especifique o nome da implantação do modelo para o modelo do Foundry | |
| Nome do modelo base | cadeia (de caracteres) | Especifique o nome do modelo base para o modelo Foundry |
Limites de Limitação
| Name | Chamadas | Período de Renovação |
|---|---|---|
| Chamadas de API por conexão | 5000 | 60 segundos |
Ações
| Criar uma conclusão de chat |
Gera uma conclusão para uma conversa, com base nas mensagens fornecidas e na configuração do modelo. |
Criar uma conclusão de chat
Gera uma conclusão para uma conversa, com base nas mensagens fornecidas e na configuração do modelo.
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
Versão da API
|
api-version | string |
A versão da API a ser usada para este ponto de extremidade de conclusão de bate-papo de modelo. |
|
|
função
|
role | string |
O papel do remetente da mensagem (por exemplo, 'usuário', 'assistente'). |
|
|
conteúdo
|
content | object | ||
|
temperatura
|
temperature | float |
A temperatura de amostragem a utilizar, entre 0 e 1. Valores mais altos tornam a saída mais aleatória. |
|
|
top_p
|
top_p | float |
O parâmetro de amostragem top-p, entre 0 e 1. |
|
|
máximo de tokens
|
max_tokens | integer |
O número máximo de tokens a gerar na resposta. |
|
|
modelo
|
model | string |
Nome da implantação do modelo. |
Devoluções
Definições
Escolha
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
content_filter_results
|
content_filter_results | object |
Resultados do filtro de conteúdo aplicado à resposta. |
|
motivo_de_finalização
|
finish_reason | string |
A razão pela qual o modelo parou de gerar mais tokens. Os valores possíveis incluem 'stop', 'length', 'content_filter', etc. |
|
indexar
|
index | integer |
O índice desta escolha dentro do conjunto gerado de completações. |
|
Logprobs
|
logprobs | string |
Registre as probabilidades associadas a cada token na resposta (se solicitado). |
|
conteúdo
|
message.content | string |
O conteúdo da mensagem gerada na conversa. Esta é a resposta à consulta NL do usuário. |
|
refusal
|
message.refusal | string |
Se o modelo se recusar a gerar uma mensagem, este campo descreve a recusa. |
|
função
|
message.role | string |
O papel do remetente da mensagem (por exemplo, 'usuário', 'assistente'). |
PromptFilterResult
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer |
O índice do prompt na entrada original. |
|
content_filter_results
|
content_filter_results | object |
Os metadados do filtro de conteúdo aplicados ao prompt. |
CompletionTokensDetalhes
Detalhes sobre o uso do token para conclusão.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
accepted_prediction_tokens
|
accepted_prediction_tokens | integer |
O número de tokens aceitos como previsões válidas para a resposta. |
|
fatores_de_razonamento
|
reasoning_tokens | integer |
O número de tokens usados para o processo de raciocínio do modelo. |
|
rejected_prediction_tokens
|
rejected_prediction_tokens | integer |
O número de tokens rejeitados durante o processo de previsão. |
PromptTokensDetalhes
Detalhes sobre os tokens usados no prompt.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
cached_tokens
|
cached_tokens | integer |
O número de tokens que foram armazenados em cache e reutilizados para o prompt. |
Usage
Detalhes de uso do token para a solicitação, incluindo tokens de prompt e conclusão.
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
completion_tokens
|
completion_tokens | integer |
O número de tokens consumidos pela conclusão. |
|
completion_tokens_details
|
completion_tokens_details | CompletionTokensDetails |
Detalhes sobre o uso do token para conclusão. |
|
prompt_tokens
|
prompt_tokens | integer |
O número de tokens consumidos pelo prompt. |
|
prompt_tokens_details
|
prompt_tokens_details | PromptTokensDetails |
Detalhes sobre os tokens usados no prompt. |
|
total_tokens
|
total_tokens | integer |
O número total de tokens consumidos por toda a solicitação (prompt + conclusão). |
ChatCompletionResponse
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
choices
|
choices | array of Choice |
A lista de conclusões geradas para o prompt fornecido. |
|
id
|
id | string |
Um identificador exclusivo para a solicitação de conclusão do chat. |
|
modelo
|
model | string |
O modelo usado para gerar a conclusão do chat. |
|
prompt_filter_results
|
prompt_filter_results | array of PromptFilterResult |
O filtro de conteúdo resulta de cada prompt na solicitação. |
|
utilização
|
usage | Usage |
Detalhes de uso do token para a solicitação, incluindo tokens de prompt e conclusão. |