IA de perplexidade (Editor Independente) (versão prévia)
Desbloqueie o assistente de pesquisa de IA mais poderoso. Aumente a perplexidade para o próximo nível com mais Copilot, IA atualizada, upload ilimitado de arquivos e acesso ao serviço Web. Atualize para Claude-2 ou GPT-4 para obter respostas mais precisas, os modelos de linguagem pplx, Mistral e Llama também estarão disponíveis.
Esse conector está disponível nos seguintes produtos e regiões:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Todas as regiões do Power Automate , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Aplicativos Lógicos | Standard | Todas as regiões dos Aplicativos Lógicos , exceto as seguintes: – Regiões do Azure Governamental - Regiões do Azure China - Departamento de Defesa dos EUA (DoD) |
| Power Apps | Premium | Todas as regiões do Power Apps , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Power Automate | Premium | Todas as regiões do Power Automate , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Contato | |
|---|---|
| Nome | Troy Taylor |
| URL | https://www.hitachisolutions.com |
| ttaylor@hitachisolutions.com |
| Metadados do conector | |
|---|---|
| Publicador | Troy Taylor |
| Site | https://www.perplexity.ai/ |
| Política de privacidade | https://blog.perplexity.ai/legal/privacy-policy |
| Categorias | IA |
Criando uma conexão
O conector dá suporte aos seguintes tipos de autenticação:
| Default | Parâmetros para criar conexão. | Todas as regiões | Não compartilhável |
Padrão
Aplicável: todas as regiões
Parâmetros para criar conexão.
Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Chave de API (no formato 'Bearer YOUR_API_KEY') | secureString | A chave de API (no formato 'Bearer YOUR_API_KEY') para esta api | Verdade |
Limitações
| Nome | Chamadas | Período de renovação |
|---|---|---|
| Chamadas à API por conexão | 100 | 60 segundos |
Ações
| Obter a conclusão do chat |
Gera a resposta de um modelo para a conversa de chat fornecida. |
Obter a conclusão do chat
Gera a resposta de um modelo para a conversa de chat fornecida.
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
Modelo
|
model | True | string |
O nome do modelo que concluirá o prompt. |
|
Função
|
role | True | string |
A função do orador nesta virada de conversa. Após a mensagem do sistema (opcional), as funções de usuário e assistente devem alternar com o usuário e o assistente, terminando no usuário. |
|
Content
|
content | True | string |
O conteúdo da mensagem neste turno da conversa. |
|
Tokens máximos
|
max_tokens | integer |
O número máximo de tokens de conclusão retornados pela API. O número total de tokens solicitados em max_tokens mais o número de tokens de prompt enviados em mensagens não deve exceder o limite de token da janela de contexto do modelo solicitado. Se não for especificado, o modelo gerará tokens até atingir seu token de parada ou o final de sua janela de contexto. |
|
|
Temperatura
|
temperature | double |
A quantidade de aleatoriedade na resposta, avaliada entre 0 inclusive e 2 exclusiva. Valores mais altos são mais aleatórios e valores mais baixos são mais determinísticos. Você deve definir temperatura ou top_p, mas não ambos. |
|
|
P superior
|
top_p | double |
O limite de amostragem do núcleo, avaliado entre 0 e 1, inclusive. Para cada token subsequente, o modelo considera os resultados dos tokens com top_p massa de probabilidade. Você deve alterar a temperatura ou top_p, mas não ambos. |
|
|
K superior
|
top_k | double |
O número de tokens a serem mantidos para a filtragem top-k mais alta, especificada como um inteiro entre 0 e 2048, inclusive. Se definido como 0, a filtragem top-k será desabilitada. |
|
|
Penalidade de presença
|
presence_penalty | double |
Um valor entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. Incompatível com a penalidade de frequência. |
|
|
Penalidade de frequência
|
frequency_penalty | double |
Uma penalidade multiplicativa maior que 0. Valores maiores que 1,0 penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. Um valor de 1,0 significa nenhuma penalidade. Incompatível com a penalidade de presença. |
Retornos
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
ID
|
id | string |
O identificador. |
|
Modelo
|
model | string |
O modelo. |
|
Object
|
object | string |
O objeto. |
|
Criado
|
created | integer |
Quando criado. |
|
Choices
|
choices | array of object | |
|
Index
|
choices.index | integer |
O índice. |
|
Motivo de término
|
choices.finish_reason | string |
O motivo do término |
|
Content
|
choices.message.content | string |
O conteúdo. |
|
Função
|
choices.message.role | string |
A função. |
|
Content
|
choices.delta.content | string |
O conteúdo. |
|
Função
|
choices.delta.role | string |
A função. |
|
Prompt Tokens
|
usage.prompt_tokens | integer |
Os tokens de prompt usados. |
|
Tokens de conclusão
|
usage.completion_tokens | integer |
Os tokens de conclusão usados. |
|
Total Tokens
|
usage.total_tokens | integer |
O total de tokens usados. |