OpenAI (Éditeur indépendant) (préversion)
Connectez-vous à l’API OpenAI et utilisez la puissance de GPT3, la clé API doit être entrée en tant que « Porteur YOUR_API_KEY »
Ce connecteur est disponible dans les produits et régions suivants :
| Service | classe | Régions |
|---|---|---|
| Copilot Studio | Premium | Toutes les régions Power Automate , à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Applications logiques | Norme | Toutes les régions Logic Apps , à l’exception des suivantes : - Régions Azure Government - Régions Azure Chine - Us Department of Defense (DoD) |
| Power Apps | Premium | Toutes les régions Power Apps , à l’exception des suivantes : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Power Automate | Premium | Toutes les régions Power Automate , à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Contact | |
|---|---|
| Nom | Robin Rosengrün |
| URL | https://linktr.ee/r2power |
| Messagerie électronique | robin@r2power.de |
| Métadonnées du connecteur | |
|---|---|
| Éditeur | Robin Rosengrün |
| Site web | https://openai.com/ |
| Politique de confidentialité | https://openai.com/api/policies/terms/ |
| Catégories | AI |
Création d’une connexion
Le connecteur prend en charge les types d’authentification suivants :
| Par défaut | Paramètres de création de connexion. | Toutes les régions | Non partageable |
Faire défaut
Applicable : Toutes les régions
Paramètres de création de connexion.
Cette connexion n’est pas partageable. Si l’application power est partagée avec un autre utilisateur, un autre utilisateur est invité à créer une connexion explicitement.
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| Clé d’API | securestring | Entrez la clé API en tant que « Porteur YOUR_API_KEY » | Vrai |
Limitations
| Nom | Appels | Période de renouvellement |
|---|---|---|
| Appels d’API par connexion | 100 | 60 secondes |
Actions
| Créer une image |
DallE2 crée une image à partir de votre invite |
| Fin de la conversation instantanée |
Utiliser des modèles tels que ChatGPT et GPT4 pour tenir une conversation |
| GPT3 termine votre invite |
GPT3 termine votre invite |
| GPT3 termine votre invite [DÉCONSEILLÉE] |
GPT3 termine votre invite (déconseillée par OpenAI - utiliser Completion_New) |
| Incorporations |
Obtenir une représentation vectorielle d’une entrée donnée |
Créer une image
DallE2 crée une image à partir de votre invite
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
prompt
|
prompt | True | string |
Invite qui décrit l’image |
|
Nombre d’images
|
n | integer |
Nombre d’images comprises entre 1 et 10 |
|
|
size
|
size | string |
Taille des images générées. 256x256, 512x512 ou 1024x1024 (par défaut : 1024x1024) |
|
|
format
|
response_format | string |
Obtenir l’URL de l’image ou la recevoir au format base64 (par défaut : url) |
Retours
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
données
|
data | array of object |
données |
|
URL
|
data.url | string |
URL de création d’image |
|
b64image
|
data.b64_json | byte |
Image au format base64 |
Fin de la conversation instantanée
Utiliser des modèles tels que ChatGPT et GPT4 pour tenir une conversation
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
model
|
model | True | string |
Le modèle utilisé, choisir entre gpt-3.5-turbo, gpt-4 et autres |
|
role
|
role | True | string |
Rôle de l’auteur de ce message. Un système, un utilisateur ou un assistant. |
|
contenu
|
content | True | string |
Contenu du message. |
|
n
|
n | integer |
Nombre d’achèvements à générer pour chaque invite |
|
|
température
|
temperature | float |
Des valeurs plus élevées signifient que le modèle prendra plus de risques. Essayez 0,9 pour plus d’applications créatives, et 0 (échantillonnage argmax) pour ceux avec une réponse bien définie. Utiliser ce P supérieur OR |
|
|
nombre maximal de jetons
|
max_tokens | integer |
Un jeton est égal à environ 4 caractères de texte (jusqu’à 4 000 jetons entre l’invite et la saisie semi-automatique, selon le modèle) |
|
|
top p
|
top_p | float |
Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. |
|
|
pénalité de fréquence
|
frequency_penalty | float |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que les modèles répètent la même ligne verbatim. |
|
|
pénalité de présence
|
presence_penalty | float |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que les modèles parlent de nouveaux sujets. |
|
|
stop
|
stop | array of string |
Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt |
Retours
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
pièce d'identité |
|
objet
|
object | string |
objet |
|
créé
|
created | integer |
créé |
|
choices
|
choices | array of object |
choices |
|
index
|
choices.index | integer |
index |
|
role
|
choices.message.role | string |
role |
|
contenu
|
choices.message.content | string |
contenu |
|
finish_reason
|
choices.finish_reason | string |
finish_reason |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
completion_tokens
|
usage.completion_tokens | integer |
completion_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |
GPT3 termine votre invite
GPT3 termine votre invite
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Engine
|
model | True | string |
Le modèle utilisé, choisissez entre text-davinci-002, text-curie-001, text-babbage-001, text-ada-001 |
|
prompt
|
prompt | True | string |
Texte qui sera terminé par GPT3 |
|
n
|
n | integer |
Nombre d’achèvements à générer pour chaque invite |
|
|
best_of
|
best_of | integer |
Si la valeur est supérieure à 1, génère plusieurs achèvements côté serveur et retourne le « meilleur ». Doit être supérieur à « n ». Utilisez avec précaution, peut consommer beaucoup de jetons. |
|
|
température
|
temperature | float |
Des valeurs plus élevées signifient que le modèle prendra plus de risques. Essayez 0,9 pour plus d’applications créatives, et 0 (échantillonnage argmax) pour ceux avec une réponse bien définie. Utiliser ce P supérieur OR |
|
|
nombre maximal de jetons
|
max_tokens | integer |
Un jeton est égal à environ 4 caractères de texte (jusqu’à 4 000 jetons entre l’invite et la saisie semi-automatique) |
|
|
top p
|
top_p | float |
Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. |
|
|
pénalité de fréquence
|
frequency_penalty | float |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que les modèles répètent la même ligne verbatim. |
|
|
pénalité de présence
|
presence_penalty | float |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que les modèles parlent de nouveaux sujets. |
|
|
stop
|
stop | array of string |
Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt |
Retours
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
pièce d'identité |
|
objet
|
object | string |
objet |
|
créé
|
created | integer |
créé |
|
choices
|
choices | array of object |
Saisie semi-automatique retournée |
|
Texto
|
choices.text | string |
Texte de saisie semi-automatique |
|
Index
|
choices.index | integer |
Nombre de saisie semi-automatique |
|
Fin de la raison
|
choices.finish_reason | string |
Raison pour laquelle le texte est terminé (condition d’arrêt / fin naturelle / longueur) |
|
Jetons d’invite
|
choices.usage.prompt_tokens | integer |
Nombre de jetons dans l’invite |
|
Jetons d’achèvement
|
choices.usage.completion_tokens | integer |
Nombre de jetons dans la saisie semi-automatique |
|
Nombre total de jetons
|
choices.usage.total_tokens | integer |
Nombre total de jetons dans l’invite et la saisie semi-automatique |
GPT3 termine votre invite [DÉCONSEILLÉE]
GPT3 termine votre invite (déconseillée par OpenAI - utiliser Completion_New)
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Engine
|
engine | True | string |
Le moteur utilisé, choisissez entre text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001 |
|
prompt
|
prompt | True | string |
Texte qui sera terminé par GPT3 |
|
n
|
n | integer |
Nombre d’achèvements à générer pour chaque invite |
|
|
best_of
|
best_of | integer |
Si la valeur est supérieure à 1, génère plusieurs achèvements côté serveur et retourne le « meilleur ». Doit être supérieur à « n ». Utilisez avec précaution, peut consommer beaucoup de jetons. |
|
|
température
|
temperature | float |
Des valeurs plus élevées signifient que le modèle prendra plus de risques. Essayez 0,9 pour plus d’applications créatives, et 0 (échantillonnage argmax) pour ceux avec une réponse bien définie. Utiliser ce P supérieur OR |
|
|
nombre maximal de jetons
|
max_tokens | integer |
Un jeton est égal à environ 4 caractères de texte (jusqu’à 4 000 jetons entre l’invite et la saisie semi-automatique) |
|
|
top p
|
top_p | float |
Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. |
|
|
pénalité de fréquence
|
frequency_penalty | float |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que les modèles répètent la même ligne verbatim. |
|
|
pénalité de présence
|
presence_penalty | float |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que les modèles parlent de nouveaux sujets. |
|
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui aidera OpenAI à surveiller et à détecter les abus |
|
|
stop
|
stop | array of string |
Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt |
Retours
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
pièce d'identité |
|
objet
|
object | string |
objet |
|
créé
|
created | integer |
créé |
|
choices
|
choices | array of object |
Saisie semi-automatique retournée |
|
Texto
|
choices.text | string |
Texte de saisie semi-automatique |
|
Index
|
choices.index | integer |
Nombre de saisie semi-automatique |
|
Logprobs
|
choices.logprobs | string |
Incluez les probabilités de journal sur les jetons logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 3, l’API retourne une liste des 3 jetons les plus probables. |
|
Fin de la raison
|
choices.finish_reason | string |
Raison pour laquelle le texte est terminé (condition d’arrêt / fin naturelle / longueur) |
Incorporations
Obtenir une représentation vectorielle d’une entrée donnée
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
model
|
model | True | string |
model |
|
saisie
|
input | True | string |
saisie |
Retours
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
objet
|
object | string |
objet |
|
données
|
data | array of object |
données |
|
objet
|
data.object | string |
objet |
|
embedding
|
data.embedding | array of float |
embedding |
|
index
|
data.index | integer |
index |
|
model
|
model | string |
model |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |