Freigeben über


OpenAI (Unabhängiger Herausgeber) (Vorschau)

Stellen Sie eine Verbindung mit der OpenAI-API her, und verwenden Sie die Power von GPT3, muss der API-Schlüssel als "Bearer YOUR_API_KEY" eingegeben werden.

Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:

Dienstleistung Class Regions
Copilot Studio Premium Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Logik-Apps Norm Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche:
     – Azure Government-Regionen
     - Azure China-Regionen
     - US Department of Defense (DoD)
Power Apps Premium Alle Power Apps-Regionen mit Ausnahme der folgenden:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Power Automate Premium Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Kontakt
Name Robin Rosengrün
URL https://linktr.ee/r2power
Email robin@r2power.de
Connectormetadaten
Herausgeber Robin Rosengrün
Webseite https://openai.com/
Datenschutzrichtlinie https://openai.com/api/policies/terms/
Kategorien Künstliche Intelligenz

Erstellen einer Verbindung

Der Connector unterstützt die folgenden Authentifizierungstypen:

Vorgabe Parameter zum Erstellen einer Verbindung. Alle Regionen Nicht teilbar

Vorgabe

Anwendbar: Alle Regionen

Parameter zum Erstellen einer Verbindung.

Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.

Name Typ Description Erforderlich
API-Schlüssel securestring Geben Sie den API-Schlüssel als "Bearer YOUR_API_KEY" ein. Richtig

Drosselungsgrenzwerte

Name Aufrufe Verlängerungszeitraum
API-Aufrufe pro Verbindung 100 60 Sekunden

Aktionen

Chatvervollständigung

Verwenden von Modellen wie ChatGPT und GPT4 zum Halten einer Unterhaltung

Einbettungen

Abrufen einer Vektordarstellung einer bestimmten Eingabe

Erstellen eines Bilds

DallE2 erstellt ein Bild aus ihrer Eingabeaufforderung.

GPT3 Schließt Ihre Eingabeaufforderung ab

GPT3 Schließt Ihre Eingabeaufforderung ab

GPT3 Schließt Ihre Eingabeaufforderung ab [VERALTET]

GPT3 Schließt Ihre Eingabeaufforderung ab (veraltet von OpenAI – Completion_New verwenden)

Chatvervollständigung

Verwenden von Modellen wie ChatGPT und GPT4 zum Halten einer Unterhaltung

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Modell
model True string

Das verwendete Modell, wählen Sie zwischen gpt-3.5-Turbo, gpt-4 und anderen

role
role True string

Die Rolle des Autors dieser Nachricht Eines von System, Benutzer oder Assistent.

Inhalt
content True string

Der Inhalt der Nachricht.

n
n integer

Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen

Temperatur
temperature float

Höhere Werte bedeuten, dass das Modell mehr Risiken einnimmt. Probieren Sie 0,9 für kreativere Anwendungen und 0 (Argmax Sampling) für diejenigen mit einer gut definierten Antwort. Verwenden Sie dieses OR top p

max token
max_tokens integer

Ein Token entspricht ungefähr 4 Zeichen Text (bis zu 4000 oder mehr Token zwischen Aufforderung und Abschluss, je nach Modell)

oben p
top_p float

Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Häufigkeitsstrafe
frequency_penalty float

Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass die Modelle dieselbe Zeile wiederholt werden.

Anwesenheitsstrafe
presence_penalty float

Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.

stop
stop array of string

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält nicht die Stoppsequenz.

Gibt zurück

Name Pfad Typ Beschreibung
id
id string

id

Objekt
object string

Objekt

erstellt
created integer

erstellt

choices
choices array of object

choices

index
choices.index integer

index

role
choices.message.role string

role

Inhalt
choices.message.content string

Inhalt

Beendigungsgrund
choices.finish_reason string

Beendigungsgrund

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

completion_tokens
usage.completion_tokens integer

completion_tokens

Gesamtanzahl Tokens
usage.total_tokens integer

Gesamtanzahl Tokens

Einbettungen

Abrufen einer Vektordarstellung einer bestimmten Eingabe

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Modell
model True string

Modell

Eingabe
input True string

Eingabe

Gibt zurück

Name Pfad Typ Beschreibung
Objekt
object string

Objekt

Daten
data array of object

Daten

Objekt
data.object string

Objekt

embedding
data.embedding array of float

embedding

index
data.index integer

index

Modell
model string

Modell

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

Gesamtanzahl Tokens
usage.total_tokens integer

Gesamtanzahl Tokens

Erstellen eines Bilds

DallE2 erstellt ein Bild aus ihrer Eingabeaufforderung.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
prompt
prompt True string

Die Eingabeaufforderung, die das Bild beschreibt

Anzahl der Bilder
n integer

Anzahl der Bilder von 1 bis 10

size
size string

Die Größe der generierten Bilder. 256x256, 512x512 oder 1024x1024 (Standard: 1024x1024)

format
response_format string

Abrufen einer URL zum Bild oder Empfangen des Bilds im Base64-Format (Standard: URL)

Gibt zurück

Name Pfad Typ Beschreibung
Daten
data array of object

Daten

URL
data.url string

URL zum Erstellen eines Bilds

b64image
data.b64_json byte

Bild im Base64-Format

GPT3 Schließt Ihre Eingabeaufforderung ab

GPT3 Schließt Ihre Eingabeaufforderung ab

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Engine
model True string

Das verwendete Modell, wählen Sie zwischen text-davinci-002, text-curie-001, text-babbage-001, text-ada-001

prompt
prompt True string

Text, der von GPT3 abgeschlossen wird

n
n integer

Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen

best_of
best_of integer

Wenn dieser Wert auf mehr als 1 festgelegt ist, werden serverseitig mehrere Vervollständigungen generiert und das "Beste" zurückgegeben. Muss größer als "n" sein. Verwenden Sie mit Vorsicht, können viele Token verbrauchen.

Temperatur
temperature float

Höhere Werte bedeuten, dass das Modell mehr Risiken einnimmt. Probieren Sie 0,9 für kreativere Anwendungen und 0 (Argmax Sampling) für diejenigen mit einer gut definierten Antwort. Verwenden Sie dieses OR top p

max token
max_tokens integer

Ein Token entspricht ungefähr 4 Zeichen Text (bis zu 4000 Token zwischen Aufforderung und Abschluss)

oben p
top_p float

Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Häufigkeitsstrafe
frequency_penalty float

Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass die Modelle dieselbe Zeile wiederholt werden.

Anwesenheitsstrafe
presence_penalty float

Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.

stop
stop array of string

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält nicht die Stoppsequenz.

Gibt zurück

Name Pfad Typ Beschreibung
id
id string

id

Objekt
object string

Objekt

erstellt
created integer

erstellt

choices
choices array of object

Zurückgegebene Fertigstellung(en)

Text
choices.text string

Vervollständigungstext

Index
choices.index integer

Anzahl der Fertigstellung

Endgrund
choices.finish_reason string

Grund, warum der Text fertig gestellt wurde (Stoppbedingung / natürliches Ende / Länge)

Aufforderungstoken
choices.usage.prompt_tokens integer

Anzahl der Token in der Eingabeaufforderung

Abschlusstoken
choices.usage.completion_tokens integer

Anzahl der Token im Abschluss

Gesamttoken
choices.usage.total_tokens integer

Gesamtzahl der Token in Eingabeaufforderung und Abschluss

GPT3 Schließt Ihre Eingabeaufforderung ab [VERALTET]

GPT3 Schließt Ihre Eingabeaufforderung ab (veraltet von OpenAI – Completion_New verwenden)

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Engine
engine True string

Das verwendete Modul, wählen Sie zwischen text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001

prompt
prompt True string

Text, der von GPT3 abgeschlossen wird

n
n integer

Wie viele Fertigstellungen für jede Aufforderung generiert werden sollen

best_of
best_of integer

Wenn dieser Wert auf mehr als 1 festgelegt ist, werden serverseitig mehrere Vervollständigungen generiert und das "Beste" zurückgegeben. Muss größer als "n" sein. Verwenden Sie mit Vorsicht, können viele Token verbrauchen.

Temperatur
temperature float

Höhere Werte bedeuten, dass das Modell mehr Risiken einnimmt. Probieren Sie 0,9 für kreativere Anwendungen und 0 (Argmax Sampling) für diejenigen mit einer gut definierten Antwort. Verwenden Sie dieses OR top p

max token
max_tokens integer

Ein Token entspricht ungefähr 4 Zeichen Text (bis zu 4000 Token zwischen Aufforderung und Abschluss)

oben p
top_p float

Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Häufigkeitsstrafe
frequency_penalty float

Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass die Modelle dieselbe Zeile wiederholt werden.

Anwesenheitsstrafe
presence_penalty float

Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen.

user
user string

Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI hilft, Missbrauch zu überwachen und zu erkennen

stop
stop array of string

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text enthält nicht die Stoppsequenz.

Gibt zurück

Name Pfad Typ Beschreibung
id
id string

id

Objekt
object string

Objekt

erstellt
created integer

erstellt

choices
choices array of object

Zurückgegebene Fertigstellung(en)

Text
choices.text string

Vervollständigungstext

Index
choices.index integer

Anzahl der Fertigstellung

Logprobs
choices.logprobs string

Schließen Sie die Protokollwahrscheinlichkeiten für die Logprobs wahrscheinlichsten Token sowie die ausgewählten Token ein. Wenn beispielsweise Logprobs 3 sind, gibt die API eine Liste der 3 höchstwahrscheinlichen Token zurück.

Endgrund
choices.finish_reason string

Grund, warum der Text fertig gestellt wurde (Stoppbedingung / natürliches Ende / Länge)