OpenAI (Unabhängiger Herausgeber) (Vorschau)
Stellen Sie eine Verbindung mit der OpenAI-API her, und verwenden Sie die Power von GPT3, muss der API-Schlüssel als "Bearer YOUR_API_KEY" eingegeben werden.
Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:
| Dienstleistung | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Logik-Apps | Norm | Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche: – Azure Government-Regionen - Azure China-Regionen - US Department of Defense (DoD) |
| Power Apps | Premium | Alle Power Apps-Regionen mit Ausnahme der folgenden: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Power Automate | Premium | Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Kontakt | |
|---|---|
| Name | Robin Rosengrün |
| URL | https://linktr.ee/r2power |
| robin@r2power.de |
| Connectormetadaten | |
|---|---|
| Herausgeber | Robin Rosengrün |
| Webseite | https://openai.com/ |
| Datenschutzrichtlinie | https://openai.com/api/policies/terms/ |
| Kategorien | Künstliche Intelligenz |
Erstellen einer Verbindung
Der Connector unterstützt die folgenden Authentifizierungstypen:
| Vorgabe | Parameter zum Erstellen einer Verbindung. | Alle Regionen | Nicht teilbar |
Vorgabe
Anwendbar: Alle Regionen
Parameter zum Erstellen einer Verbindung.
Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| API-Schlüssel | securestring | Geben Sie den API-Schlüssel als "Bearer YOUR_API_KEY" ein. | Richtig |
Drosselungsgrenzwerte
| Name | Aufrufe | Verlängerungszeitraum |
|---|---|---|
| API-Aufrufe pro Verbindung | 100 | 60 Sekunden |
Aktionen
| Chatvervollständigung |
Verwenden von Modellen wie ChatGPT und GPT4 zum Halten einer Unterhaltung |
| Einbettungen |
Abrufen einer Vektordarstellung einer bestimmten Eingabe |
| Erstellen eines Bilds |
DallE2 erstellt ein Bild aus ihrer Eingabeaufforderung. |
| GPT3 Schließt Ihre Eingabeaufforderung ab |
GPT3 Schließt Ihre Eingabeaufforderung ab |
| GPT3 Schließt Ihre Eingabeaufforderung ab [VERALTET] |
GPT3 Schließt Ihre Eingabeaufforderung ab (veraltet von OpenAI – Completion_New verwenden) |
Chatvervollständigung
Verwenden von Modellen wie ChatGPT und GPT4 zum Halten einer Unterhaltung
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Modell
|
model | True | string |
Das verwendete Modell, wählen Sie zwischen gpt-3.5-Turbo, gpt-4 und anderen |
|
role
|
role | True | string |
Die Rolle des Autors dieser Nachricht Eines von System, Benutzer oder Assistent. |
|
Inhalt
|
content | True | string |
Der Inhalt der Nachricht. |
|
n
|
n | integer |
Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen |
|
|
Temperatur
|
temperature | float |
Höhere Werte bedeuten, dass das Modell mehr Risiken einnimmt. Probieren Sie 0,9 für kreativere Anwendungen und 0 (Argmax Sampling) für diejenigen mit einer gut definierten Antwort. Verwenden Sie dieses OR top p |
|
|
max token
|
max_tokens | integer |
Ein Token entspricht ungefähr 4 Zeichen Text (bis zu 4000 oder mehr Token zwischen Aufforderung und Abschluss, je nach Modell) |
|
|
oben p
|
top_p | float |
Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. |
|
|
Häufigkeitsstrafe
|
frequency_penalty | float |
Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass die Modelle dieselbe Zeile wiederholt werden. |
|
|
Anwesenheitsstrafe
|
presence_penalty | float |
Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
|
|
stop
|
stop | array of string |
Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält nicht die Stoppsequenz. |
Gibt zurück
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
id |
|
Objekt
|
object | string |
Objekt |
|
erstellt
|
created | integer |
erstellt |
|
choices
|
choices | array of object |
choices |
|
index
|
choices.index | integer |
index |
|
role
|
choices.message.role | string |
role |
|
Inhalt
|
choices.message.content | string |
Inhalt |
|
Beendigungsgrund
|
choices.finish_reason | string |
Beendigungsgrund |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
completion_tokens
|
usage.completion_tokens | integer |
completion_tokens |
|
Gesamtanzahl Tokens
|
usage.total_tokens | integer |
Gesamtanzahl Tokens |
Einbettungen
Abrufen einer Vektordarstellung einer bestimmten Eingabe
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Modell
|
model | True | string |
Modell |
|
Eingabe
|
input | True | string |
Eingabe |
Gibt zurück
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Objekt
|
object | string |
Objekt |
|
Daten
|
data | array of object |
Daten |
|
Objekt
|
data.object | string |
Objekt |
|
embedding
|
data.embedding | array of float |
embedding |
|
index
|
data.index | integer |
index |
|
Modell
|
model | string |
Modell |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
Gesamtanzahl Tokens
|
usage.total_tokens | integer |
Gesamtanzahl Tokens |
Erstellen eines Bilds
DallE2 erstellt ein Bild aus ihrer Eingabeaufforderung.
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
prompt
|
prompt | True | string |
Die Eingabeaufforderung, die das Bild beschreibt |
|
Anzahl der Bilder
|
n | integer |
Anzahl der Bilder von 1 bis 10 |
|
|
size
|
size | string |
Die Größe der generierten Bilder. 256x256, 512x512 oder 1024x1024 (Standard: 1024x1024) |
|
|
format
|
response_format | string |
Abrufen einer URL zum Bild oder Empfangen des Bilds im Base64-Format (Standard: URL) |
Gibt zurück
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Daten
|
data | array of object |
Daten |
|
URL
|
data.url | string |
URL zum Erstellen eines Bilds |
|
b64image
|
data.b64_json | byte |
Bild im Base64-Format |
GPT3 Schließt Ihre Eingabeaufforderung ab
GPT3 Schließt Ihre Eingabeaufforderung ab
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Engine
|
model | True | string |
Das verwendete Modell, wählen Sie zwischen text-davinci-002, text-curie-001, text-babbage-001, text-ada-001 |
|
prompt
|
prompt | True | string |
Text, der von GPT3 abgeschlossen wird |
|
n
|
n | integer |
Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen |
|
|
best_of
|
best_of | integer |
Wenn dieser Wert auf mehr als 1 festgelegt ist, werden serverseitig mehrere Vervollständigungen generiert und das "Beste" zurückgegeben. Muss größer als "n" sein. Verwenden Sie mit Vorsicht, können viele Token verbrauchen. |
|
|
Temperatur
|
temperature | float |
Höhere Werte bedeuten, dass das Modell mehr Risiken einnimmt. Probieren Sie 0,9 für kreativere Anwendungen und 0 (Argmax Sampling) für diejenigen mit einer gut definierten Antwort. Verwenden Sie dieses OR top p |
|
|
max token
|
max_tokens | integer |
Ein Token entspricht ungefähr 4 Zeichen Text (bis zu 4000 Token zwischen Aufforderung und Abschluss) |
|
|
oben p
|
top_p | float |
Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. |
|
|
Häufigkeitsstrafe
|
frequency_penalty | float |
Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass die Modelle dieselbe Zeile wiederholt werden. |
|
|
Anwesenheitsstrafe
|
presence_penalty | float |
Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
|
|
stop
|
stop | array of string |
Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält nicht die Stoppsequenz. |
Gibt zurück
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
id |
|
Objekt
|
object | string |
Objekt |
|
erstellt
|
created | integer |
erstellt |
|
choices
|
choices | array of object |
Zurückgegebene Fertigstellung(en) |
|
Text
|
choices.text | string |
Vervollständigungstext |
|
Index
|
choices.index | integer |
Anzahl der Fertigstellung |
|
Endgrund
|
choices.finish_reason | string |
Grund, warum der Text fertig gestellt wurde (Stoppbedingung / natürliches Ende / Länge) |
|
Aufforderungstoken
|
choices.usage.prompt_tokens | integer |
Anzahl der Token in der Eingabeaufforderung |
|
Abschlusstoken
|
choices.usage.completion_tokens | integer |
Anzahl der Token im Abschluss |
|
Gesamttoken
|
choices.usage.total_tokens | integer |
Gesamtzahl der Token in Eingabeaufforderung und Abschluss |
GPT3 Schließt Ihre Eingabeaufforderung ab [VERALTET]
GPT3 Schließt Ihre Eingabeaufforderung ab (veraltet von OpenAI – Completion_New verwenden)
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Engine
|
engine | True | string |
Das verwendete Modul, wählen Sie zwischen text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001 |
|
prompt
|
prompt | True | string |
Text, der von GPT3 abgeschlossen wird |
|
n
|
n | integer |
Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen |
|
|
best_of
|
best_of | integer |
Wenn dieser Wert auf mehr als 1 festgelegt ist, werden serverseitig mehrere Vervollständigungen generiert und das "Beste" zurückgegeben. Muss größer als "n" sein. Verwenden Sie mit Vorsicht, können viele Token verbrauchen. |
|
|
Temperatur
|
temperature | float |
Höhere Werte bedeuten, dass das Modell mehr Risiken einnimmt. Probieren Sie 0,9 für kreativere Anwendungen und 0 (Argmax Sampling) für diejenigen mit einer gut definierten Antwort. Verwenden Sie dieses OR top p |
|
|
max token
|
max_tokens | integer |
Ein Token entspricht ungefähr 4 Zeichen Text (bis zu 4000 Token zwischen Aufforderung und Abschluss) |
|
|
oben p
|
top_p | float |
Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. |
|
|
Häufigkeitsstrafe
|
frequency_penalty | float |
Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass die Modelle dieselbe Zeile wiederholt werden. |
|
|
Anwesenheitsstrafe
|
presence_penalty | float |
Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. |
|
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI hilft, Missbrauch zu überwachen und zu erkennen |
|
|
stop
|
stop | array of string |
Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält nicht die Stoppsequenz. |
Gibt zurück
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
id |
|
Objekt
|
object | string |
Objekt |
|
erstellt
|
created | integer |
erstellt |
|
choices
|
choices | array of object |
Zurückgegebene Fertigstellung(en) |
|
Text
|
choices.text | string |
Vervollständigungstext |
|
Index
|
choices.index | integer |
Anzahl der Fertigstellung |
|
Logprobs
|
choices.logprobs | string |
Schließen Sie die Protokollwahrscheinlichkeiten für die Logprobs wahrscheinlichsten Token sowie die ausgewählten Token ein. Wenn beispielsweise Logprobs 3 sind, gibt die API eine Liste der 3 höchstwahrscheinlichen Token zurück. |
|
Endgrund
|
choices.finish_reason | string |
Grund, warum der Text fertig gestellt wurde (Stoppbedingung / natürliches Ende / Länge) |