Perplexity AI (publicador independiente) (versión preliminar)
Desbloquee al asistente de investigación de ia más eficaz. Aumente la perplejidad al siguiente nivel con más Copilot, inteligencia artificial actualizada, carga de archivos ilimitada y acceso al servicio web. Actualice a Claude-2 o GPT-4 para obtener respuestas más precisas, también estarán disponibles los modelos de lenguaje pplx, Mistral y Llama.
Este conector está disponible en los siguientes productos y regiones:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Todas las regiones de Power Automate excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Aplicaciones lógicas | Estándar | Todas las regiones de Logic Apps excepto las siguientes: - Regiones de Azure Government - Regiones de Azure China - Departamento de Defensa de EE. UU. (DoD) |
| Power Apps | Premium | Todas las regiones de Power Apps excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Power Automate | Premium | Todas las regiones de Power Automate excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Contacto | |
|---|---|
| Nombre | Troy Taylor |
| URL | https://www.hitachisolutions.com |
| Correo Electrónico | ttaylor@hitachisolutions.com |
| Metadatos del conector | |
|---|---|
| Publicador | Troy Taylor |
| Sitio web | https://www.perplexity.ai/ |
| Directiva de privacidad | https://blog.perplexity.ai/legal/privacy-policy |
| Categorías | AI |
Creación de una conexión
El conector admite los siguientes tipos de autenticación:
| Predeterminado | Parámetros para crear una conexión. | Todas las regiones | No se puede compartir |
Predeterminado
Aplicable: Todas las regiones
Parámetros para crear una conexión.
Esta conexión no se puede compartir. Si la aplicación de energía se comparte con otro usuario, se pedirá a otro usuario que cree explícitamente una nueva conexión.
| Nombre | Tipo | Description | Obligatorio |
|---|---|---|---|
| Clave de API (con el formato "Bearer YOUR_API_KEY") | securestring | Clave de API (con el formato "Bearer YOUR_API_KEY") para esta API | Cierto |
Limitaciones
| Nombre | Llamadas | Período de renovación |
|---|---|---|
| Llamadas API por conexión | 100 | 60 segundos |
Acciones
| Obtención de la finalización del chat |
Genera la respuesta de un modelo para la conversación de chat dada. |
Obtención de la finalización del chat
Genera la respuesta de un modelo para la conversación de chat dada.
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Modelo
|
model | True | string |
Nombre del modelo que completará el mensaje. |
|
Rol
|
role | True | string |
Rol del orador en este turno de conversación. Después del mensaje del sistema (opcional), los roles de usuario y asistente deben alternar con el asistente de usuario y, después, finalizar en el usuario. |
|
Content
|
content | True | string |
Contenido del mensaje en este turno de conversación. |
|
Número máximo de tokens
|
max_tokens | integer |
Número máximo de tokens de finalización devueltos por la API. El número total de tokens solicitados en max_tokens más el número de tokens de solicitud enviados en los mensajes no debe superar el límite de tokens de ventana de contexto del modelo solicitado. Si se deja sin especificar, el modelo generará tokens hasta que alcance su token de detención o el final de su ventana de contexto. |
|
|
Temperatura
|
temperature | double |
Cantidad de aleatoriedad en la respuesta, con valores comprendidos entre 0 inclusive y 2 exclusivos. Los valores más altos son más aleatorios y los valores inferiores son más deterministas. Debe establecer la temperatura o top_p, pero no ambas. |
|
|
P superior
|
top_p | double |
Umbral de muestreo del núcleo, valorado entre 0 y 1 inclusive. Para cada token posterior, el modelo considera los resultados de los tokens con top_p masa de probabilidad. Debe modificar la temperatura o top_p, pero no ambas. |
|
|
K superior
|
top_k | double |
Número de tokens que se deben mantener para el filtrado superior k más alto, especificado como un entero entre 0 y 2048 inclusive. Si se establece en 0, el filtrado superior k está deshabilitado. |
|
|
Penalización de presencia
|
presence_penalty | double |
Valor entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su aparición en el texto hasta el momento, aumentando la probabilidad de que el modelo hable de nuevos temas. Incompatible con la penalización de frecuencia. |
|
|
Penalización de frecuencia
|
frequency_penalty | double |
Una penalización multiplicativa mayor que 0. Los valores mayores que 1,0 penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad del modelo de repetir la misma línea textual. Un valor de 1,0 significa que no hay penalización. Incompatible con la penalización de presencia. |
Devoluciones
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
identificación
|
id | string |
Identificador. |
|
Modelo
|
model | string |
Modelo. |
|
Objeto
|
object | string |
Objeto . |
|
Creado
|
created | integer |
Cuando se crea. |
|
Opciones
|
choices | array of object | |
|
Index
|
choices.index | integer |
Índice. |
|
Motivo de finalización
|
choices.finish_reason | string |
Motivo de finalización |
|
Content
|
choices.message.content | string |
El contenido. |
|
Rol
|
choices.message.role | string |
Rol. |
|
Content
|
choices.delta.content | string |
El contenido. |
|
Rol
|
choices.delta.role | string |
Rol. |
|
Símbolos de solicitud
|
usage.prompt_tokens | integer |
Los tokens de solicitud usados. |
|
Tokens de finalización
|
usage.completion_tokens | integer |
Los tokens de finalización usados. |
|
Total Tokens
|
usage.total_tokens | integer |
El total de tokens usados. |