Udostępnij przez


OpenAI (niezależny wydawca) (wersja zapoznawcza)

Nawiąż połączenie z interfejsem API interfejsu OpenAI i użyj klucza interfejsu API GPT3, a klucz interfejsu API musi zostać wprowadzony jako "Bearer YOUR_API_KEY"

Ten łącznik jest dostępny w następujących produktach i regionach:

Usługa Class Regions
Copilot Studio Premium Wszystkie regiony usługi Power Automate z wyjątkiem następujących:
     - Rząd USA (GCC)
     - Rząd USA (GCC High)
     - China Cloud obsługiwane przez firmę 21Vianet
     - Departament Obrony USA (DoD)
Logic Apps Standard Wszystkie regiony usługi Logic Apps z wyjątkiem następujących:
     — Regiony platformy Azure Government
     — Regiony platformy Azure (Chiny)
     - Departament Obrony USA (DoD)
Power Apps Premium Wszystkie regiony usługi Power Apps z wyjątkiem następujących:
     - Rząd USA (GCC)
     - Rząd USA (GCC High)
     - China Cloud obsługiwane przez firmę 21Vianet
     - Departament Obrony USA (DoD)
Power Automate Premium Wszystkie regiony usługi Power Automate z wyjątkiem następujących:
     - Rząd USA (GCC)
     - Rząd USA (GCC High)
     - China Cloud obsługiwane przez firmę 21Vianet
     - Departament Obrony USA (DoD)
Kontakt
Name Robin Rosengrün
adres URL https://linktr.ee/r2power
Email robin@r2power.de
Metadane łącznika
Publisher Robin Rosengrün
Witryna internetowa https://openai.com/
Zasady ochrony prywatności https://openai.com/api/policies/terms/
Kategorie AI

Tworzenie połączenia

Łącznik obsługuje następujące typy uwierzytelniania:

Wartość domyślna Parametry tworzenia połączenia. Wszystkie regiony Nie można udostępniać

Domyślny

Dotyczy: wszystkie regiony

Parametry tworzenia połączenia.

Nie jest to możliwe do udostępnienia połączenie. Jeśli aplikacja power zostanie udostępniona innemu użytkownikowi, zostanie wyświetlony monit o jawne utworzenie nowego połączenia.

Name Typ Description Wymagane
Klucz interfejsu API securestring Wprowadź klucz interfejsu API jako "bearer YOUR_API_KEY" Prawda

Limity ograniczania

Nazwa Wywołania Okres odnowienia
Wywołania interfejsu API na połączenie 100 60 sekund

Akcje

GPT3 kończy monit

GPT3 kończy monit

GPT3 kończy monit [PRZESTARZAŁE]

GPT3 kończy monit (przestarzałe przez interfejs OpenAI — użyj Completion_New)

Osadzanie

Pobieranie wektorowej reprezentacji danych wejściowych

Tworzenie obrazu

DallE2 tworzy obraz na podstawie monitu

Uzupełnianie czatu

Używanie modeli, takich jak ChatGPT i GPT4, do prowadzenia konwersacji

GPT3 kończy monit

GPT3 kończy monit

Parametry

Nazwa Klucz Wymagane Typ Opis
Engine
model True string

Używany model, wybierz między text-davinci-002, text-curie-001, text-babbage-001, text-ada-001

monit
prompt True string

Tekst, który zostanie ukończony przez GPT3

n
n integer

Ile uzupełnień do wygenerowania dla każdego monitu

najlepsze z
best_of integer

Jeśli ustawiono wartość większą niż 1, generuje wiele uzupełniania po stronie serwera i zwraca wartość "najlepszą". Musi być większe niż "n". Używaj z ostrożnością, może zużywać wiele tokenów.

temperatura
temperature float

Wyższe wartości oznaczają, że model podejmie większe ryzyko. Wypróbuj 0,9, aby uzyskać więcej kreatywnych aplikacji i 0 (próbkowanie argmax) dla tych z dobrze zdefiniowaną odpowiedzią. Użyj tego or top p

maksymalna liczba tokenów
max_tokens integer

Jeden token jest równy około 4 znaków tekstu (do 4000 tokenów między monitem a ukończeniem)

góra p
top_p float

Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

karę częstotliwości
frequency_penalty float

Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.

kara obecności
presence_penalty float

Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że modele będą mówić o nowych tematach.

stop
stop array of string

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania

Zwraca

Nazwa Ścieżka Typ Opis
id
id string

id

obiekt
object string

obiekt

utworzone
created integer

utworzone

choices
choices array of object

Zwrócone zakończenia

Tekst
choices.text string

Tekst ukończenia

Index
choices.index integer

Liczba ukończenia

Przyczyna zakończenia
choices.finish_reason string

Przyczyna zakończenia tekstu (warunek zatrzymania / naturalny koniec / długość)

Monituj tokeny
choices.usage.prompt_tokens integer

Liczba tokenów w wierszu polecenia

Tokeny ukończenia
choices.usage.completion_tokens integer

Liczba tokenów w zakończeniu

Łączna liczba tokenów
choices.usage.total_tokens integer

Łączna liczba tokenów w monitach i uzupełnianiu

GPT3 kończy monit [PRZESTARZAŁE]

GPT3 kończy monit (przestarzałe przez interfejs OpenAI — użyj Completion_New)

Parametry

Nazwa Klucz Wymagane Typ Opis
Engine
engine True string

Używany aparat, wybierz między text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001

monit
prompt True string

Tekst, który zostanie ukończony przez GPT3

n
n integer

Ile uzupełnień do wygenerowania dla każdego monitu

najlepsze z
best_of integer

Jeśli ustawiono wartość większą niż 1, generuje wiele uzupełniania po stronie serwera i zwraca wartość "najlepszą". Musi być większe niż "n". Używaj z ostrożnością, może zużywać wiele tokenów.

temperatura
temperature float

Wyższe wartości oznaczają, że model podejmie większe ryzyko. Wypróbuj 0,9, aby uzyskać więcej kreatywnych aplikacji i 0 (próbkowanie argmax) dla tych z dobrze zdefiniowaną odpowiedzią. Użyj tego or top p

maksymalna liczba tokenów
max_tokens integer

Jeden token jest równy około 4 znaków tekstu (do 4000 tokenów między monitem a ukończeniem)

góra p
top_p float

Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

karę częstotliwości
frequency_penalty float

Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.

kara obecności
presence_penalty float

Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że modele będą mówić o nowych tematach.

użytkownik
user string

Unikatowy identyfikator reprezentujący użytkownika końcowego, który pomoże usłudze OpenAI monitorować i wykrywać nadużycia

stop
stop array of string

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania

Zwraca

Nazwa Ścieżka Typ Opis
id
id string

id

obiekt
object string

obiekt

utworzone
created integer

utworzone

choices
choices array of object

Zwrócone zakończenia

Tekst
choices.text string

Tekst ukończenia

Index
choices.index integer

Liczba ukończenia

Logprobs
choices.logprobs string

Uwzględnij prawdopodobieństwa dziennika na tokenach logprobs najprawdopodobniej, a także wybrane tokeny. Jeśli na przykład logprobs ma wartość 3, interfejs API zwróci listę 3 najbardziej prawdopodobnych tokenów.

Przyczyna zakończenia
choices.finish_reason string

Przyczyna zakończenia tekstu (warunek zatrzymania / naturalny koniec / długość)

Osadzanie

Pobieranie wektorowej reprezentacji danych wejściowych

Parametry

Nazwa Klucz Wymagane Typ Opis
model
model True string

model

dane wejściowe
input True string

dane wejściowe

Zwraca

Nazwa Ścieżka Typ Opis
obiekt
object string

obiekt

dane
data array of object

dane

obiekt
data.object string

obiekt

embedding
data.embedding array of float

embedding

indeks
data.index integer

indeks

model
model string

model

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

total_tokens
usage.total_tokens integer

total_tokens

Tworzenie obrazu

DallE2 tworzy obraz na podstawie monitu

Parametry

Nazwa Klucz Wymagane Typ Opis
monit
prompt True string

Monit opisujący obraz

Liczba obrazów
n integer

Liczba obrazów z zakresu od 1 do 10

size
size string

Rozmiar wygenerowanych obrazów. 256x256, 512x512 lub 1024x1024 (wartość domyślna: 1024x1024)

format
response_format string

Pobieranie adresu URL do obrazu lub odbieranie go w formacie base64 (domyślnie: adres URL)

Zwraca

Nazwa Ścieżka Typ Opis
dane
data array of object

dane

URL
data.url string

Adres URL do utworzenia obrazu

b64image
data.b64_json byte

Obraz w formacie base64

Uzupełnianie czatu

Używanie modeli, takich jak ChatGPT i GPT4, do prowadzenia konwersacji

Parametry

Nazwa Klucz Wymagane Typ Opis
model
model True string

Używany model, wybierz między gpt-3.5-turbo, gpt-4 i inne

rola
role True string

Rola autora tej wiadomości. Jeden z systemów, użytkowników lub asystentów.

zawartość
content True string

Zawartość wiadomości.

n
n integer

Ile uzupełnień do wygenerowania dla każdego monitu

temperatura
temperature float

Wyższe wartości oznaczają, że model podejmie większe ryzyko. Wypróbuj 0,9, aby uzyskać więcej kreatywnych aplikacji i 0 (próbkowanie argmax) dla tych z dobrze zdefiniowaną odpowiedzią. Użyj tego or top p

maksymalna liczba tokenów
max_tokens integer

Jeden token jest równy około 4 znaków tekstu (do 4000 lub więcej tokenów między monitem a ukończeniem, w zależności od modelu)

góra p
top_p float

Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa.

karę częstotliwości
frequency_penalty float

Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.

kara obecności
presence_penalty float

Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że modele będą mówić o nowych tematach.

stop
stop array of string

Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania

Zwraca

Nazwa Ścieżka Typ Opis
id
id string

id

obiekt
object string

obiekt

utworzone
created integer

utworzone

choices
choices array of object

choices

indeks
choices.index integer

indeks

rola
choices.message.role string

rola

zawartość
choices.message.content string

zawartość

powód zakończenia
choices.finish_reason string

powód zakończenia

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

completion_tokens
usage.completion_tokens integer

completion_tokens

total_tokens
usage.total_tokens integer

total_tokens