Inferência do Azure AI Foundry
Esta é uma especificação do Swagger de primeira parte para modelos do Azure AI Foundry, especificamente projetado para tarefas de Conclusão de Chat. Atualmente, ele dá suporte apenas ao ponto de extremidade de Conclusões de Chat.
Esse conector está disponível nos seguintes produtos e regiões:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Standard | Todas as regiões do Power Automate |
| Aplicativos Lógicos | Standard | Todas as regiões de Aplicativos Lógicos |
| Power Apps | Standard | Todas as regiões do Power Apps |
| Power Automate | Standard | Todas as regiões do Power Automate |
| Contato | |
|---|---|
| Nome | Microsoft |
| URL | https://support.microsoft.com/ |
| abapi@microsoft.com |
| Metadados do conector | |
|---|---|
| Publicador | Microsoft |
| Site | https://learn.microsoft.com/en-us/azure/ai-foundry/ |
| Política de privacidade | https://privacy.microsoft.com/en-us/privacystatement |
| Categorias | IA |
Criando uma conexão
O conector dá suporte aos seguintes tipos de autenticação:
| Default | Parâmetros para criar conexão. | Todas as regiões | Compartilhável |
Padrão
Aplicável: todas as regiões
Parâmetros para criar conexão.
Essa é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, a conexão também será compartilhada. Para obter mais informações, consulte a visão geral dos Conectores para aplicativos de tela – Power Apps | Microsoft Docs
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Uri de destino | cadeia | Especificar o ponto de extremidade de inferência para o modelo foundry | Verdade |
| Chave de API | secureString | A chave de API para este ponto de extremidade de inferência de modelo | Verdade |
| Nome da implantação do modelo | cadeia | Especificar o nome da implantação do modelo para o modelo foundry | |
| Nome do modelo base | cadeia | Especificar o nome do modelo base para o modelo foundry |
Limitações
| Nome | Chamadas | Período de renovação |
|---|---|---|
| Chamadas à API por conexão | 5000 | 60 segundos |
Ações
| Criar uma conclusão de chat |
Gera uma conclusão para uma conversa, com base nas mensagens fornecidas e na configuração do modelo. |
Criar uma conclusão de chat
Gera uma conclusão para uma conversa, com base nas mensagens fornecidas e na configuração do modelo.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
Versão da API
|
api-version | string |
A versão da API a ser usada para este ponto de extremidade de conclusão de chat de modelo. |
|
|
função
|
role | string |
A função do remetente da mensagem (por exemplo, 'user', 'assistant'). |
|
|
conteúdo
|
content | object | ||
|
temperatura
|
temperature | float |
A temperatura de amostragem a ser usada, entre 0 e 1. Valores mais altos tornam a saída mais aleatória. |
|
|
top_p
|
top_p | float |
O parâmetro de amostragem top-p, entre 0 e 1. |
|
|
número máximo de tokens
|
max_tokens | integer |
O número máximo de tokens a serem gerados na resposta. |
|
|
modelo
|
model | string |
Nome da implantação do modelo. |
Retornos
- Corpo
- ChatCompletionResponse
Definições
Opção
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
content_filter_results
|
content_filter_results | object |
Resultados do filtro de conteúdo aplicado à resposta. |
|
motivo_de_conclusão
|
finish_reason | string |
O motivo pelo qual o modelo parou de gerar mais tokens. Os valores possíveis incluem 'stop', 'length', 'content_filter', etc. |
|
indexar
|
index | integer |
O índice dessa escolha dentro do conjunto gerado de conclusões. |
|
logprobs
|
logprobs | string |
Probabilidades de log associadas a cada token na resposta (se solicitado). |
|
conteúdo
|
message.content | string |
O conteúdo da mensagem gerada na conversa. Essa é a resposta à consulta NL do usuário. |
|
refusal
|
message.refusal | string |
Se o modelo se recusar a gerar uma mensagem, esse campo descreverá a recusa. |
|
função
|
message.role | string |
A função do remetente da mensagem (por exemplo, 'user', 'assistant'). |
PromptFilterResult
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer |
O índice do prompt na entrada original. |
|
content_filter_results
|
content_filter_results | object |
Os metadados do filtro de conteúdo aplicados ao prompt. |
CompletionTokensDetails
Detalhes sobre o uso do token para conclusão.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
accepted_prediction_tokens
|
accepted_prediction_tokens | integer |
O número de tokens aceitos como previsões válidas para a resposta. |
|
reasoning_tokens
|
reasoning_tokens | integer |
O número de tokens usados para o processo de raciocínio do modelo. |
|
rejected_prediction_tokens
|
rejected_prediction_tokens | integer |
O número de tokens rejeitados durante o processo de previsão. |
PromptTokensDetails
Detalhes sobre os tokens usados no prompt.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
cached_tokens
|
cached_tokens | integer |
O número de tokens que foram armazenados em cache e reutilizados para o prompt. |
Usage
Detalhes de uso do token para a solicitação, incluindo tokens de prompt e de conclusão.
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
completion_tokens
|
completion_tokens | integer |
O número de tokens consumidos pela conclusão. |
|
completion_tokens_details
|
completion_tokens_details | CompletionTokensDetails |
Detalhes sobre o uso do token para conclusão. |
|
prompt_tokens
|
prompt_tokens | integer |
O número de tokens consumidos pelo prompt. |
|
prompt_tokens_details
|
prompt_tokens_details | PromptTokensDetails |
Detalhes sobre os tokens usados no prompt. |
|
total_tokens
|
total_tokens | integer |
O número total de tokens consumidos por toda a solicitação (prompt + conclusão). |
ChatCompletionResponse
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
choices
|
choices | array of Choice |
A lista de conclusões geradas para o prompt especificado. |
|
id
|
id | string |
Um identificador exclusivo para a solicitação de conclusão do chat. |
|
modelo
|
model | string |
O modelo usado para gerar a conclusão do chat. |
|
prompt_filter_results
|
prompt_filter_results | array of PromptFilterResult |
Os resultados do filtro de conteúdo para cada prompt na solicitação. |
|
uso
|
usage | Usage |
Detalhes de uso do token para a solicitação, incluindo tokens de prompt e de conclusão. |