OpenAI (publicador independiente) (versión preliminar)
Conéctese a la API de OpenAI y use power of GPT3; la clave de API debe especificarse como "Bearer YOUR_API_KEY"
Este conector está disponible en los siguientes productos y regiones:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Todas las regiones de Power Automate excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Aplicaciones lógicas | Estándar | Todas las regiones de Logic Apps excepto las siguientes: - Regiones de Azure Government - Regiones de Azure China - Departamento de Defensa de EE. UU. (DoD) |
| Power Apps | Premium | Todas las regiones de Power Apps excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Power Automate | Premium | Todas las regiones de Power Automate excepto las siguientes: - Gobierno de EE. UU. (GCC) - Gobierno de EE. UU. (GCC High) - China Cloud operado por 21Vianet - Departamento de Defensa de EE. UU. (DoD) |
| Contacto | |
|---|---|
| Nombre | Robin Rosengrün |
| URL | https://linktr.ee/r2power |
| Correo Electrónico | robin@r2power.de |
| Metadatos del conector | |
|---|---|
| Publicador | Robin Rosengrün |
| Sitio web | https://openai.com/ |
| Directiva de privacidad | https://openai.com/api/policies/terms/ |
| Categorías | AI |
Creación de una conexión
El conector admite los siguientes tipos de autenticación:
| Predeterminado | Parámetros para crear una conexión. | Todas las regiones | No se puede compartir |
Predeterminado
Aplicable: Todas las regiones
Parámetros para crear una conexión.
Esta conexión no se puede compartir. Si la aplicación de energía se comparte con otro usuario, se pedirá a otro usuario que cree explícitamente una nueva conexión.
| Nombre | Tipo | Description | Obligatorio |
|---|---|---|---|
| Clave de API | securestring | Escriba la clave de API como "Bearer YOUR_API_KEY" | Cierto |
Limitaciones
| Nombre | Llamadas | Período de renovación |
|---|---|---|
| Llamadas API por conexión | 100 | 60 segundos |
Acciones
| Crear una imagen |
DallE2 crea una imagen desde el símbolo del sistema |
| Finalización del chat |
Usar modelos como ChatGPT y GPT4 para mantener una conversación |
| GPT3 completa el mensaje |
GPT3 completa el mensaje |
| GPT3 completa el mensaje [EN DESUSO] |
GPT3 completa el mensaje (en desuso por OpenAI: use Completion_New) |
| Incrustaciones |
Obtener una representación vectorial de una entrada determinada |
Crear una imagen
DallE2 crea una imagen desde el símbolo del sistema
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
inmediato
|
prompt | True | string |
Símbolo del sistema que describe la imagen |
|
Número de imágenes
|
n | integer |
Número de imágenes de 1 a 10 |
|
|
size
|
size | string |
Tamaño de las imágenes generadas. 256x256, 512x512 o 1024x1024 (valor predeterminado: 1024x1024) |
|
|
format
|
response_format | string |
Obtener la dirección URL a la imagen o recibirla en formato base64 (valor predeterminado: url) |
Devoluciones
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
datos
|
data | array of object |
datos |
|
URL
|
data.url | string |
Dirección URL a la imagen creada |
|
b64image
|
data.b64_json | byte |
Imagen en formato base64 |
Finalización del chat
Usar modelos como ChatGPT y GPT4 para mantener una conversación
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
model
|
model | True | string |
El modelo usado, elija entre gpt-3.5-turbo, gpt-4 y otros |
|
role
|
role | True | string |
Rol del autor de este mensaje. Uno de los sistemas, usuarios o asistentes. |
|
contenido
|
content | True | string |
Contenido del mensaje. |
|
n
|
n | integer |
Cuántas finalizaciones se van a generar para cada solicitud |
|
|
temperatura
|
temperature | float |
Los valores más altos significan que el modelo tomará más riesgos. Pruebe 0.9 para obtener más aplicaciones creativas y 0 (muestreo argmax) para las que tienen una respuesta bien definida. Use esta or top p |
|
|
max tokens
|
max_tokens | integer |
Un token es aproximadamente 4 caracteres de texto (hasta 4000 o más tokens entre solicitud y finalización, según el modelo) |
|
|
top p
|
top_p | float |
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. |
|
|
penalización de frecuencia
|
frequency_penalty | float |
Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que los modelos repitan la misma línea textual. |
|
|
penalización de presencia
|
presence_penalty | float |
Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que los modelos hablen de nuevos temas. |
|
|
stop
|
stop | array of string |
Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
Devoluciones
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objeto
|
object | string |
objeto |
|
creado
|
created | integer |
creado |
|
choices
|
choices | array of object |
choices |
|
index
|
choices.index | integer |
index |
|
role
|
choices.message.role | string |
role |
|
contenido
|
choices.message.content | string |
contenido |
|
razón de finalización
|
choices.finish_reason | string |
razón de finalización |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
completion_tokens
|
usage.completion_tokens | integer |
completion_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |
GPT3 completa el mensaje
GPT3 completa el mensaje
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Motor
|
model | True | string |
Modelo usado, elija entre text-davinci-002, text-curie-001, text-babbage-001, text-ada-001 |
|
inmediato
|
prompt | True | string |
Texto completado por GPT3 |
|
n
|
n | integer |
Cuántas finalizaciones se van a generar para cada solicitud |
|
|
best_of
|
best_of | integer |
Si se establece en más de 1, genera varias finalizaciones del lado servidor y devuelve el "mejor". Debe ser mayor que "n". Use con precaución, puede consumir una gran cantidad de tokens. |
|
|
temperatura
|
temperature | float |
Los valores más altos significan que el modelo tomará más riesgos. Pruebe 0.9 para obtener más aplicaciones creativas y 0 (muestreo argmax) para las que tienen una respuesta bien definida. Use esta or top p |
|
|
max tokens
|
max_tokens | integer |
Un token es aproximadamente 4 caracteres de texto (hasta 4000 tokens entre la solicitud y la finalización) |
|
|
top p
|
top_p | float |
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. |
|
|
penalización de frecuencia
|
frequency_penalty | float |
Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que los modelos repitan la misma línea textual. |
|
|
penalización de presencia
|
presence_penalty | float |
Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que los modelos hablen de nuevos temas. |
|
|
stop
|
stop | array of string |
Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
Devoluciones
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objeto
|
object | string |
objeto |
|
creado
|
created | integer |
creado |
|
choices
|
choices | array of object |
Finalizaciones devueltas |
|
Mensaje de texto
|
choices.text | string |
Texto de finalización |
|
Index
|
choices.index | integer |
Número de finalización |
|
Motivo de finalización
|
choices.finish_reason | string |
Motivo por el que el texto finalizó (condición de detención/ fin natural/longitud) |
|
Símbolos de solicitud
|
choices.usage.prompt_tokens | integer |
Número de tokens en el símbolo del sistema |
|
Tokens de finalización
|
choices.usage.completion_tokens | integer |
Número de tokens en la finalización |
|
Total Tokens
|
choices.usage.total_tokens | integer |
Número total de tokens en solicitud y finalización |
GPT3 completa el mensaje [EN DESUSO]
GPT3 completa el mensaje (en desuso por OpenAI: use Completion_New)
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
Motor
|
engine | True | string |
El motor usado, elija entre text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001 |
|
inmediato
|
prompt | True | string |
Texto completado por GPT3 |
|
n
|
n | integer |
Cuántas finalizaciones se van a generar para cada solicitud |
|
|
best_of
|
best_of | integer |
Si se establece en más de 1, genera varias finalizaciones del lado servidor y devuelve el "mejor". Debe ser mayor que "n". Use con precaución, puede consumir una gran cantidad de tokens. |
|
|
temperatura
|
temperature | float |
Los valores más altos significan que el modelo tomará más riesgos. Pruebe 0.9 para obtener más aplicaciones creativas y 0 (muestreo argmax) para las que tienen una respuesta bien definida. Use esta or top p |
|
|
max tokens
|
max_tokens | integer |
Un token es aproximadamente 4 caracteres de texto (hasta 4000 tokens entre la solicitud y la finalización) |
|
|
top p
|
top_p | float |
Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. |
|
|
penalización de frecuencia
|
frequency_penalty | float |
Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que los modelos repitan la misma línea textual. |
|
|
penalización de presencia
|
presence_penalty | float |
Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que los modelos hablen de nuevos temas. |
|
|
user
|
user | string |
Un identificador único que representa al usuario final, lo que ayudará a OpenAI a supervisar y detectar abusos. |
|
|
stop
|
stop | array of string |
Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención. |
Devoluciones
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objeto
|
object | string |
objeto |
|
creado
|
created | integer |
creado |
|
choices
|
choices | array of object |
Finalizaciones devueltas |
|
Mensaje de texto
|
choices.text | string |
Texto de finalización |
|
Index
|
choices.index | integer |
Número de finalización |
|
Logprobs
|
choices.logprobs | string |
Incluya las probabilidades de registro en los tokens más probables de los registros, así como los tokens elegidos. Por ejemplo, si logprobs es 3, la API devolverá una lista de los 3 tokens más probables. |
|
Motivo de finalización
|
choices.finish_reason | string |
Motivo por el que el texto finalizó (condición de detención/ fin natural/longitud) |
Incrustaciones
Obtener una representación vectorial de una entrada determinada
Parámetros
| Nombre | Clave | Requerido | Tipo | Description |
|---|---|---|---|---|
|
model
|
model | True | string |
model |
|
entrada
|
input | True | string |
entrada |
Devoluciones
| Nombre | Ruta de acceso | Tipo | Description |
|---|---|---|---|
|
objeto
|
object | string |
objeto |
|
datos
|
data | array of object |
datos |
|
objeto
|
data.object | string |
objeto |
|
embedding
|
data.embedding | array of float |
embedding |
|
index
|
data.index | integer |
index |
|
model
|
model | string |
model |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |