OpenAI (Onafhankelijke uitgever) (preview)
Maak verbinding met de OpenAI-API en gebruik de Power of GPT3. De API-sleutel moet worden ingevoerd als 'Bearer YOUR_API_KEY'
Deze connector is beschikbaar in de volgende producten en regio's:
| Dienst | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Alle Power Automate-regio's , met uitzondering van het volgende: - Amerikaanse overheid (GCC) - Amerikaanse overheid (GCC High) - China Cloud beheerd door 21Vianet - Us Department of Defense (DoD) |
| Logic-apps | Standaard | Alle Logic Apps-regio's , met uitzondering van het volgende: - Azure Government-regio's - Azure China-regio's - Us Department of Defense (DoD) |
| Power Apps | Premium | Alle Power Apps-regio's , met uitzondering van het volgende: - Amerikaanse overheid (GCC) - Amerikaanse overheid (GCC High) - China Cloud beheerd door 21Vianet - Us Department of Defense (DoD) |
| Power Automate | Premium | Alle Power Automate-regio's , met uitzondering van het volgende: - Amerikaanse overheid (GCC) - Amerikaanse overheid (GCC High) - China Cloud beheerd door 21Vianet - Us Department of Defense (DoD) |
| Contactpersoon | |
|---|---|
| Naam | Robin Rosengrün |
| URL | https://linktr.ee/r2power |
| E-mailen | robin@r2power.de |
| Connectormetagegevens | |
|---|---|
| Uitgever | Robin Rosengrün |
| Webpagina | https://openai.com/ |
| Privacybeleid | https://openai.com/api/policies/terms/ |
| Categorieën | AI |
Een verbinding maken
De connector ondersteunt de volgende verificatietypen:
| standaard | Parameters voor het maken van verbinding. | Alle regio's | Niet deelbaar |
Verstek
Van toepassing: Alle regio's
Parameters voor het maken van verbinding.
Dit is geen deelbare verbinding. Als de power-app wordt gedeeld met een andere gebruiker, wordt een andere gebruiker gevraagd om expliciet een nieuwe verbinding te maken.
| Naam | Typologie | Description | Verplicht |
|---|---|---|---|
| API-sleutel | beveiligde string | Voer de API-sleutel in als 'Bearer YOUR_API_KEY' | Klopt |
Beperkingslimieten
| Name | Aanroepen | Verlengingsperiode |
|---|---|---|
| API-aanroepen per verbinding | 100 | 60 seconden |
Acties
| Chatvoltooiing |
Modellen zoals ChatGPT en GPT4 gebruiken om een gesprek te houden |
| Een installatiekopieën maken |
DallE2 maakt een installatiekopieën van uw prompt |
| Embedderingen |
Een vectorweergave van een bepaalde invoer ophalen |
| GPT3 voltooit uw prompt |
GPT3 voltooit uw prompt |
| GPT3 voltooit uw prompt [AFGESCHAFT] |
GPT3 voltooit uw prompt (afgeschaft door OpenAI - gebruik Completion_New) |
Chatvoltooiing
Modellen zoals ChatGPT en GPT4 gebruiken om een gesprek te houden
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
model
|
model | True | string |
Het gebruikte model, kies tussen gpt-3.5-turbo, gpt-4 en andere |
|
rol
|
role | True | string |
De rol van de auteur van dit bericht. Een van systeem, gebruiker of assistent. |
|
inhoud
|
content | True | string |
De inhoud van het bericht. |
|
n
|
n | integer |
Hoeveel voltooiingen er moeten worden gegenereerd voor elke prompt |
|
|
temperatuur
|
temperature | float |
Hogere waarden betekent dat het model meer risico's neemt. Probeer 0.9 voor creatievere toepassingen en 0 (argmax sampling) voor degenen met een goed gedefinieerd antwoord. Gebruik deze OR top p |
|
|
maximum aantal tokens
|
max_tokens | integer |
Eén token is ongeveer 4 tekens aan tekst (maximaal 4000 of meer tokens tussen prompt en voltooiing, afhankelijk van het model) |
|
|
bovenste p
|
top_p | float |
Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. |
|
|
frequentiestraf
|
frequency_penalty | float |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans op modellen kleiner wordt om dezelfde regel te herhalen. |
|
|
aanwezigheidsstraf
|
presence_penalty | float |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe in de tekst worden weergegeven, waardoor de kans op modellen groter wordt om over nieuwe onderwerpen te praten. |
|
|
stop
|
stop | array of string |
Maximaal vier reeksen waarbij de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat niet de stopvolgorde |
Retouren
| Name | Pad | Type | Description |
|---|---|---|---|
|
identiteitskaart
|
id | string |
identiteitskaart |
|
Voorwerp
|
object | string |
Voorwerp |
|
geschapen
|
created | integer |
geschapen |
|
choices
|
choices | array of object |
choices |
|
index
|
choices.index | integer |
index |
|
rol
|
choices.message.role | string |
rol |
|
inhoud
|
choices.message.content | string |
inhoud |
|
afsluitreden
|
choices.finish_reason | string |
afsluitreden |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
completion_tokens
|
usage.completion_tokens | integer |
completion_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |
Een installatiekopieën maken
DallE2 maakt een installatiekopieën van uw prompt
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
prompt
|
prompt | True | string |
De prompt waarmee de afbeelding wordt beschreven |
|
Aantal afbeeldingen
|
n | integer |
Aantal afbeeldingen van 1 tot 10 |
|
|
size
|
size | string |
De grootte van de gegenereerde afbeeldingen. 256x256, 512x512 of 1024x1024 (standaard: 1024x1024) |
|
|
format
|
response_format | string |
Url ophalen naar afbeelding of ontvangen in base64-indeling (standaard: URL) |
Retouren
| Name | Pad | Type | Description |
|---|---|---|---|
|
gegevens
|
data | array of object |
gegevens |
|
url
|
data.url | string |
URL voor gemaakte installatiekopieën |
|
b64image
|
data.b64_json | byte |
Afbeelding in base64-indeling |
Embedderingen
Een vectorweergave van een bepaalde invoer ophalen
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
model
|
model | True | string |
model |
|
invoer
|
input | True | string |
invoer |
Retouren
| Name | Pad | Type | Description |
|---|---|---|---|
|
Voorwerp
|
object | string |
Voorwerp |
|
gegevens
|
data | array of object |
gegevens |
|
Voorwerp
|
data.object | string |
Voorwerp |
|
embedding
|
data.embedding | array of float |
embedding |
|
index
|
data.index | integer |
index |
|
model
|
model | string |
model |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |
GPT3 voltooit uw prompt
GPT3 voltooit uw prompt
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
Motor
|
model | True | string |
Het gebruikte model, kies tussen tekst-davinci-002, text-curie-001, text-babbage-001, text-ada-001 |
|
prompt
|
prompt | True | string |
Tekst die wordt voltooid door GPT3 |
|
n
|
n | integer |
Hoeveel voltooiingen er moeten worden gegenereerd voor elke prompt |
|
|
beste van
|
best_of | integer |
Als deze optie is ingesteld op meer dan 1, genereert u meerdere voltooiingen aan de serverzijde en retourneert u de 'beste'. Moet groter zijn dan 'n'. Gebruik voorzichtig, kan veel tokens verbruiken. |
|
|
temperatuur
|
temperature | float |
Hogere waarden betekent dat het model meer risico's neemt. Probeer 0.9 voor creatievere toepassingen en 0 (argmax sampling) voor degenen met een goed gedefinieerd antwoord. Gebruik deze OR top p |
|
|
maximum aantal tokens
|
max_tokens | integer |
Eén token is ongeveer 4 tekens aan tekst (maximaal 4000 tokens tussen prompt en voltooiing) |
|
|
bovenste p
|
top_p | float |
Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. |
|
|
frequentiestraf
|
frequency_penalty | float |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans op modellen kleiner wordt om dezelfde regel te herhalen. |
|
|
aanwezigheidsstraf
|
presence_penalty | float |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe in de tekst worden weergegeven, waardoor de kans op modellen groter wordt om over nieuwe onderwerpen te praten. |
|
|
stop
|
stop | array of string |
Maximaal vier reeksen waarbij de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat niet de stopvolgorde |
Retouren
| Name | Pad | Type | Description |
|---|---|---|---|
|
identiteitskaart
|
id | string |
identiteitskaart |
|
Voorwerp
|
object | string |
Voorwerp |
|
geschapen
|
created | integer |
geschapen |
|
choices
|
choices | array of object |
Geretourneerde voltooiing(en) |
|
Tekst
|
choices.text | string |
Voltooiingstekst |
|
Index
|
choices.index | integer |
Aantal voltooiingen |
|
Reden van einde
|
choices.finish_reason | string |
Reden waarom de tekst is voltooid (stopvoorwaarde / natuurlijke eind - lengte) |
|
Prompttokens
|
choices.usage.prompt_tokens | integer |
Aantal tokens in de prompt |
|
Voltooiingstokens
|
choices.usage.completion_tokens | integer |
Aantal tokens in de voltooiing |
|
Totaal aantal tokens
|
choices.usage.total_tokens | integer |
Totaal aantal tokens bij prompt en voltooiing |
GPT3 voltooit uw prompt [AFGESCHAFT]
GPT3 voltooit uw prompt (afgeschaft door OpenAI - gebruik Completion_New)
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
Motor
|
engine | True | string |
De gebruikte engine, kies tussen tekst-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001 |
|
prompt
|
prompt | True | string |
Tekst die wordt voltooid door GPT3 |
|
n
|
n | integer |
Hoeveel voltooiingen er moeten worden gegenereerd voor elke prompt |
|
|
beste van
|
best_of | integer |
Als deze optie is ingesteld op meer dan 1, genereert u meerdere voltooiingen aan de serverzijde en retourneert u de 'beste'. Moet groter zijn dan 'n'. Gebruik voorzichtig, kan veel tokens verbruiken. |
|
|
temperatuur
|
temperature | float |
Hogere waarden betekent dat het model meer risico's neemt. Probeer 0.9 voor creatievere toepassingen en 0 (argmax sampling) voor degenen met een goed gedefinieerd antwoord. Gebruik deze OR top p |
|
|
maximum aantal tokens
|
max_tokens | integer |
Eén token is ongeveer 4 tekens aan tekst (maximaal 4000 tokens tussen prompt en voltooiing) |
|
|
bovenste p
|
top_p | float |
Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. |
|
|
frequentiestraf
|
frequency_penalty | float |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans op modellen kleiner wordt om dezelfde regel te herhalen. |
|
|
aanwezigheidsstraf
|
presence_penalty | float |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe in de tekst worden weergegeven, waardoor de kans op modellen groter wordt om over nieuwe onderwerpen te praten. |
|
|
user
|
user | string |
Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee OpenAI misbruik kan bewaken en detecteren |
|
|
stop
|
stop | array of string |
Maximaal vier reeksen waarbij de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat niet de stopvolgorde |
Retouren
| Name | Pad | Type | Description |
|---|---|---|---|
|
identiteitskaart
|
id | string |
identiteitskaart |
|
Voorwerp
|
object | string |
Voorwerp |
|
geschapen
|
created | integer |
geschapen |
|
choices
|
choices | array of object |
Geretourneerde voltooiing(en) |
|
Tekst
|
choices.text | string |
Voltooiingstekst |
|
Index
|
choices.index | integer |
Aantal voltooiingen |
|
Logprobs
|
choices.logprobs | string |
Neem de logboekkans op de meest waarschijnlijke tokens van de logprobs op, evenals de gekozen tokens. Als logprobs bijvoorbeeld 3 zijn, retourneert de API een lijst met de 3 meest waarschijnlijke tokens. |
|
Reden van einde
|
choices.finish_reason | string |
Reden waarom de tekst is voltooid (stopvoorwaarde / natuurlijke eind - lengte) |