Partager via


OpenAI (Éditeur indépendant) (préversion)

Connectez-vous à l’API OpenAI et utilisez la puissance de GPT3, la clé API doit être entrée en tant que « Porteur YOUR_API_KEY »

Ce connecteur est disponible dans les produits et régions suivants :

Service classe Régions
Copilot Studio Premium Toutes les régions Power Automate , à l’exception des éléments suivants :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Applications logiques Norme Toutes les régions Logic Apps , à l’exception des suivantes :
     - Régions Azure Government
     - Régions Azure Chine
     - Us Department of Defense (DoD)
Power Apps Premium Toutes les régions Power Apps , à l’exception des suivantes :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Power Automate Premium Toutes les régions Power Automate , à l’exception des éléments suivants :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Contact
Nom Robin Rosengrün
URL https://linktr.ee/r2power
Messagerie électronique robin@r2power.de
Métadonnées du connecteur
Éditeur Robin Rosengrün
Site web https://openai.com/
Politique de confidentialité https://openai.com/api/policies/terms/
Catégories AI

Création d’une connexion

Le connecteur prend en charge les types d’authentification suivants :

Par défaut Paramètres de création de connexion. Toutes les régions Non partageable

Faire défaut

Applicable : Toutes les régions

Paramètres de création de connexion.

Cette connexion n’est pas partageable. Si l’application power est partagée avec un autre utilisateur, un autre utilisateur est invité à créer une connexion explicitement.

Nom Type Descriptif Obligatoire
Clé d’API securestring Entrez la clé API en tant que « Porteur YOUR_API_KEY » Vrai

Limitations

Nom Appels Période de renouvellement
Appels d’API par connexion 100 60 secondes

Actions

Créer une image

DallE2 crée une image à partir de votre invite

Fin de la conversation instantanée

Utiliser des modèles tels que ChatGPT et GPT4 pour tenir une conversation

GPT3 termine votre invite

GPT3 termine votre invite

GPT3 termine votre invite [DÉCONSEILLÉE]

GPT3 termine votre invite (déconseillée par OpenAI - utiliser Completion_New)

Incorporations

Obtenir une représentation vectorielle d’une entrée donnée

Créer une image

DallE2 crée une image à partir de votre invite

Paramètres

Nom Clé Obligatoire Type Description
prompt
prompt True string

Invite qui décrit l’image

Nombre d’images
n integer

Nombre d’images comprises entre 1 et 10

size
size string

Taille des images générées. 256x256, 512x512 ou 1024x1024 (par défaut : 1024x1024)

format
response_format string

Obtenir l’URL de l’image ou la recevoir au format base64 (par défaut : url)

Retours

Nom Chemin d’accès Type Description
données
data array of object

données

URL
data.url string

URL de création d’image

b64image
data.b64_json byte

Image au format base64

Fin de la conversation instantanée

Utiliser des modèles tels que ChatGPT et GPT4 pour tenir une conversation

Paramètres

Nom Clé Obligatoire Type Description
model
model True string

Le modèle utilisé, choisir entre gpt-3.5-turbo, gpt-4 et autres

role
role True string

Rôle de l’auteur de ce message. Un système, un utilisateur ou un assistant.

contenu
content True string

Contenu du message.

n
n integer

Nombre d’achèvements à générer pour chaque invite

température
temperature float

Des valeurs plus élevées signifient que le modèle prendra plus de risques. Essayez 0,9 pour plus d’applications créatives, et 0 (échantillonnage argmax) pour ceux avec une réponse bien définie. Utiliser ce P supérieur OR

nombre maximal de jetons
max_tokens integer

Un jeton est égal à environ 4 caractères de texte (jusqu’à 4 000 jetons entre l’invite et la saisie semi-automatique, selon le modèle)

top p
top_p float

Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

pénalité de fréquence
frequency_penalty float

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que les modèles répètent la même ligne verbatim.

pénalité de présence
presence_penalty float

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que les modèles parlent de nouveaux sujets.

stop
stop array of string

Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt

Retours

Nom Chemin d’accès Type Description
pièce d'identité
id string

pièce d'identité

objet
object string

objet

créé
created integer

créé

choices
choices array of object

choices

index
choices.index integer

index

role
choices.message.role string

role

contenu
choices.message.content string

contenu

finish_reason
choices.finish_reason string

finish_reason

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

completion_tokens
usage.completion_tokens integer

completion_tokens

total_tokens
usage.total_tokens integer

total_tokens

GPT3 termine votre invite

GPT3 termine votre invite

Paramètres

Nom Clé Obligatoire Type Description
Engine
model True string

Le modèle utilisé, choisissez entre text-davinci-002, text-curie-001, text-babbage-001, text-ada-001

prompt
prompt True string

Texte qui sera terminé par GPT3

n
n integer

Nombre d’achèvements à générer pour chaque invite

best_of
best_of integer

Si la valeur est supérieure à 1, génère plusieurs achèvements côté serveur et retourne le « meilleur ». Doit être supérieur à « n ». Utilisez avec précaution, peut consommer beaucoup de jetons.

température
temperature float

Des valeurs plus élevées signifient que le modèle prendra plus de risques. Essayez 0,9 pour plus d’applications créatives, et 0 (échantillonnage argmax) pour ceux avec une réponse bien définie. Utiliser ce P supérieur OR

nombre maximal de jetons
max_tokens integer

Un jeton est égal à environ 4 caractères de texte (jusqu’à 4 000 jetons entre l’invite et la saisie semi-automatique)

top p
top_p float

Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

pénalité de fréquence
frequency_penalty float

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que les modèles répètent la même ligne verbatim.

pénalité de présence
presence_penalty float

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que les modèles parlent de nouveaux sujets.

stop
stop array of string

Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt

Retours

Nom Chemin d’accès Type Description
pièce d'identité
id string

pièce d'identité

objet
object string

objet

créé
created integer

créé

choices
choices array of object

Saisie semi-automatique retournée

Texto
choices.text string

Texte de saisie semi-automatique

Index
choices.index integer

Nombre de saisie semi-automatique

Fin de la raison
choices.finish_reason string

Raison pour laquelle le texte est terminé (condition d’arrêt / fin naturelle / longueur)

Jetons d’invite
choices.usage.prompt_tokens integer

Nombre de jetons dans l’invite

Jetons d’achèvement
choices.usage.completion_tokens integer

Nombre de jetons dans la saisie semi-automatique

Nombre total de jetons
choices.usage.total_tokens integer

Nombre total de jetons dans l’invite et la saisie semi-automatique

GPT3 termine votre invite [DÉCONSEILLÉE]

GPT3 termine votre invite (déconseillée par OpenAI - utiliser Completion_New)

Paramètres

Nom Clé Obligatoire Type Description
Engine
engine True string

Le moteur utilisé, choisissez entre text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001

prompt
prompt True string

Texte qui sera terminé par GPT3

n
n integer

Nombre d’achèvements à générer pour chaque invite

best_of
best_of integer

Si la valeur est supérieure à 1, génère plusieurs achèvements côté serveur et retourne le « meilleur ». Doit être supérieur à « n ». Utilisez avec précaution, peut consommer beaucoup de jetons.

température
temperature float

Des valeurs plus élevées signifient que le modèle prendra plus de risques. Essayez 0,9 pour plus d’applications créatives, et 0 (échantillonnage argmax) pour ceux avec une réponse bien définie. Utiliser ce P supérieur OR

nombre maximal de jetons
max_tokens integer

Un jeton est égal à environ 4 caractères de texte (jusqu’à 4 000 jetons entre l’invite et la saisie semi-automatique)

top p
top_p float

Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

pénalité de fréquence
frequency_penalty float

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que les modèles répètent la même ligne verbatim.

pénalité de présence
presence_penalty float

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que les modèles parlent de nouveaux sujets.

utilisateur
user string

Identificateur unique représentant votre utilisateur final, qui aidera OpenAI à surveiller et à détecter les abus

stop
stop array of string

Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt

Retours

Nom Chemin d’accès Type Description
pièce d'identité
id string

pièce d'identité

objet
object string

objet

créé
created integer

créé

choices
choices array of object

Saisie semi-automatique retournée

Texto
choices.text string

Texte de saisie semi-automatique

Index
choices.index integer

Nombre de saisie semi-automatique

Logprobs
choices.logprobs string

Incluez les probabilités de journal sur les jetons logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 3, l’API retourne une liste des 3 jetons les plus probables.

Fin de la raison
choices.finish_reason string

Raison pour laquelle le texte est terminé (condition d’arrêt / fin naturelle / longueur)

Incorporations

Obtenir une représentation vectorielle d’une entrée donnée

Paramètres

Nom Clé Obligatoire Type Description
model
model True string

model

saisie
input True string

saisie

Retours

Nom Chemin d’accès Type Description
objet
object string

objet

données
data array of object

données

objet
data.object string

objet

embedding
data.embedding array of float

embedding

index
data.index integer

index

model
model string

model

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

total_tokens
usage.total_tokens integer

total_tokens