Compartir a través de


OpenAI (publicador independiente) (versión preliminar)

Conéctese a la API de OpenAI y use power of GPT3; la clave de API debe especificarse como "Bearer YOUR_API_KEY"

Este conector está disponible en los siguientes productos y regiones:

Service Class Regions
Copilot Studio Premium Todas las regiones de Power Automate excepto las siguientes:
     - Gobierno de EE. UU. (GCC)
     - Gobierno de EE. UU. (GCC High)
     - China Cloud operado por 21Vianet
     - Departamento de Defensa de EE. UU. (DoD)
Aplicaciones lógicas Estándar Todas las regiones de Logic Apps excepto las siguientes:
     - Regiones de Azure Government
     - Regiones de Azure China
     - Departamento de Defensa de EE. UU. (DoD)
Power Apps Premium Todas las regiones de Power Apps excepto las siguientes:
     - Gobierno de EE. UU. (GCC)
     - Gobierno de EE. UU. (GCC High)
     - China Cloud operado por 21Vianet
     - Departamento de Defensa de EE. UU. (DoD)
Power Automate Premium Todas las regiones de Power Automate excepto las siguientes:
     - Gobierno de EE. UU. (GCC)
     - Gobierno de EE. UU. (GCC High)
     - China Cloud operado por 21Vianet
     - Departamento de Defensa de EE. UU. (DoD)
Contacto
Nombre Robin Rosengrün
URL https://linktr.ee/r2power
Correo Electrónico robin@r2power.de
Metadatos del conector
Publicador Robin Rosengrün
Sitio web https://openai.com/
Directiva de privacidad https://openai.com/api/policies/terms/
Categorías AI

Creación de una conexión

El conector admite los siguientes tipos de autenticación:

Predeterminado Parámetros para crear una conexión. Todas las regiones No se puede compartir

Predeterminado

Aplicable: Todas las regiones

Parámetros para crear una conexión.

Esta conexión no se puede compartir. Si la aplicación de energía se comparte con otro usuario, se pedirá a otro usuario que cree explícitamente una nueva conexión.

Nombre Tipo Description Obligatorio
Clave de API securestring Escriba la clave de API como "Bearer YOUR_API_KEY" Cierto

Limitaciones

Nombre Llamadas Período de renovación
Llamadas API por conexión 100 60 segundos

Acciones

Crear una imagen

DallE2 crea una imagen desde el símbolo del sistema

Finalización del chat

Usar modelos como ChatGPT y GPT4 para mantener una conversación

GPT3 completa el mensaje

GPT3 completa el mensaje

GPT3 completa el mensaje [EN DESUSO]

GPT3 completa el mensaje (en desuso por OpenAI: use Completion_New)

Incrustaciones

Obtener una representación vectorial de una entrada determinada

Crear una imagen

DallE2 crea una imagen desde el símbolo del sistema

Parámetros

Nombre Clave Requerido Tipo Description
inmediato
prompt True string

Símbolo del sistema que describe la imagen

Número de imágenes
n integer

Número de imágenes de 1 a 10

size
size string

Tamaño de las imágenes generadas. 256x256, 512x512 o 1024x1024 (valor predeterminado: 1024x1024)

format
response_format string

Obtener la dirección URL a la imagen o recibirla en formato base64 (valor predeterminado: url)

Devoluciones

Nombre Ruta de acceso Tipo Description
datos
data array of object

datos

URL
data.url string

Dirección URL a la imagen creada

b64image
data.b64_json byte

Imagen en formato base64

Finalización del chat

Usar modelos como ChatGPT y GPT4 para mantener una conversación

Parámetros

Nombre Clave Requerido Tipo Description
model
model True string

El modelo usado, elija entre gpt-3.5-turbo, gpt-4 y otros

role
role True string

Rol del autor de este mensaje. Uno de los sistemas, usuarios o asistentes.

contenido
content True string

Contenido del mensaje.

n
n integer

Cuántas finalizaciones se van a generar para cada solicitud

temperatura
temperature float

Los valores más altos significan que el modelo tomará más riesgos. Pruebe 0.9 para obtener más aplicaciones creativas y 0 (muestreo argmax) para las que tienen una respuesta bien definida. Use esta or top p

max tokens
max_tokens integer

Un token es aproximadamente 4 caracteres de texto (hasta 4000 o más tokens entre solicitud y finalización, según el modelo)

top p
top_p float

Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.

penalización de frecuencia
frequency_penalty float

Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que los modelos repitan la misma línea textual.

penalización de presencia
presence_penalty float

Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que los modelos hablen de nuevos temas.

stop
stop array of string

Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.

Devoluciones

Nombre Ruta de acceso Tipo Description
id
id string

id

objeto
object string

objeto

creado
created integer

creado

choices
choices array of object

choices

index
choices.index integer

index

role
choices.message.role string

role

contenido
choices.message.content string

contenido

razón de finalización
choices.finish_reason string

razón de finalización

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

completion_tokens
usage.completion_tokens integer

completion_tokens

total_tokens
usage.total_tokens integer

total_tokens

GPT3 completa el mensaje

GPT3 completa el mensaje

Parámetros

Nombre Clave Requerido Tipo Description
Motor
model True string

Modelo usado, elija entre text-davinci-002, text-curie-001, text-babbage-001, text-ada-001

inmediato
prompt True string

Texto completado por GPT3

n
n integer

Cuántas finalizaciones se van a generar para cada solicitud

best_of
best_of integer

Si se establece en más de 1, genera varias finalizaciones del lado servidor y devuelve el "mejor". Debe ser mayor que "n". Use con precaución, puede consumir una gran cantidad de tokens.

temperatura
temperature float

Los valores más altos significan que el modelo tomará más riesgos. Pruebe 0.9 para obtener más aplicaciones creativas y 0 (muestreo argmax) para las que tienen una respuesta bien definida. Use esta or top p

max tokens
max_tokens integer

Un token es aproximadamente 4 caracteres de texto (hasta 4000 tokens entre la solicitud y la finalización)

top p
top_p float

Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.

penalización de frecuencia
frequency_penalty float

Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que los modelos repitan la misma línea textual.

penalización de presencia
presence_penalty float

Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que los modelos hablen de nuevos temas.

stop
stop array of string

Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.

Devoluciones

Nombre Ruta de acceso Tipo Description
id
id string

id

objeto
object string

objeto

creado
created integer

creado

choices
choices array of object

Finalizaciones devueltas

Mensaje de texto
choices.text string

Texto de finalización

Index
choices.index integer

Número de finalización

Motivo de finalización
choices.finish_reason string

Motivo por el que el texto finalizó (condición de detención/ fin natural/longitud)

Símbolos de solicitud
choices.usage.prompt_tokens integer

Número de tokens en el símbolo del sistema

Tokens de finalización
choices.usage.completion_tokens integer

Número de tokens en la finalización

Total Tokens
choices.usage.total_tokens integer

Número total de tokens en solicitud y finalización

GPT3 completa el mensaje [EN DESUSO]

GPT3 completa el mensaje (en desuso por OpenAI: use Completion_New)

Parámetros

Nombre Clave Requerido Tipo Description
Motor
engine True string

El motor usado, elija entre text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001

inmediato
prompt True string

Texto completado por GPT3

n
n integer

Cuántas finalizaciones se van a generar para cada solicitud

best_of
best_of integer

Si se establece en más de 1, genera varias finalizaciones del lado servidor y devuelve el "mejor". Debe ser mayor que "n". Use con precaución, puede consumir una gran cantidad de tokens.

temperatura
temperature float

Los valores más altos significan que el modelo tomará más riesgos. Pruebe 0.9 para obtener más aplicaciones creativas y 0 (muestreo argmax) para las que tienen una respuesta bien definida. Use esta or top p

max tokens
max_tokens integer

Un token es aproximadamente 4 caracteres de texto (hasta 4000 tokens entre la solicitud y la finalización)

top p
top_p float

Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior.

penalización de frecuencia
frequency_penalty float

Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad de que los modelos repitan la misma línea textual.

penalización de presencia
presence_penalty float

Número entre -2.0 y 2.0. Los valores positivos penalizan nuevos tokens en función de si aparecen en el texto hasta ahora, lo que aumenta la probabilidad de que los modelos hablen de nuevos temas.

user
user string

Un identificador único que representa al usuario final, lo que ayudará a OpenAI a supervisar y detectar abusos.

stop
stop array of string

Hasta 4 secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de detención.

Devoluciones

Nombre Ruta de acceso Tipo Description
id
id string

id

objeto
object string

objeto

creado
created integer

creado

choices
choices array of object

Finalizaciones devueltas

Mensaje de texto
choices.text string

Texto de finalización

Index
choices.index integer

Número de finalización

Logprobs
choices.logprobs string

Incluya las probabilidades de registro en los tokens más probables de los registros, así como los tokens elegidos. Por ejemplo, si logprobs es 3, la API devolverá una lista de los 3 tokens más probables.

Motivo de finalización
choices.finish_reason string

Motivo por el que el texto finalizó (condición de detención/ fin natural/longitud)

Incrustaciones

Obtener una representación vectorial de una entrada determinada

Parámetros

Nombre Clave Requerido Tipo Description
model
model True string

model

entrada
input True string

entrada

Devoluciones

Nombre Ruta de acceso Tipo Description
objeto
object string

objeto

datos
data array of object

datos

objeto
data.object string

objeto

embedding
data.embedding array of float

embedding

index
data.index integer

index

model
model string

model

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

total_tokens
usage.total_tokens integer

total_tokens