OpenAI (niezależny wydawca) (wersja zapoznawcza)
Nawiąż połączenie z interfejsem API interfejsu OpenAI i użyj klucza interfejsu API GPT3, a klucz interfejsu API musi zostać wprowadzony jako "Bearer YOUR_API_KEY"
Ten łącznik jest dostępny w następujących produktach i regionach:
| Usługa | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Wszystkie regiony usługi Power Automate z wyjątkiem następujących: - Rząd USA (GCC) - Rząd USA (GCC High) - China Cloud obsługiwane przez firmę 21Vianet - Departament Obrony USA (DoD) |
| Logic Apps | Standard | Wszystkie regiony usługi Logic Apps z wyjątkiem następujących: — Regiony platformy Azure Government — Regiony platformy Azure (Chiny) - Departament Obrony USA (DoD) |
| Power Apps | Premium | Wszystkie regiony usługi Power Apps z wyjątkiem następujących: - Rząd USA (GCC) - Rząd USA (GCC High) - China Cloud obsługiwane przez firmę 21Vianet - Departament Obrony USA (DoD) |
| Power Automate | Premium | Wszystkie regiony usługi Power Automate z wyjątkiem następujących: - Rząd USA (GCC) - Rząd USA (GCC High) - China Cloud obsługiwane przez firmę 21Vianet - Departament Obrony USA (DoD) |
| Kontakt | |
|---|---|
| Name | Robin Rosengrün |
| adres URL | https://linktr.ee/r2power |
| robin@r2power.de |
| Metadane łącznika | |
|---|---|
| Publisher | Robin Rosengrün |
| Witryna internetowa | https://openai.com/ |
| Zasady ochrony prywatności | https://openai.com/api/policies/terms/ |
| Kategorie | AI |
Tworzenie połączenia
Łącznik obsługuje następujące typy uwierzytelniania:
| Wartość domyślna | Parametry tworzenia połączenia. | Wszystkie regiony | Nie można udostępniać |
Domyślny
Dotyczy: wszystkie regiony
Parametry tworzenia połączenia.
Nie jest to możliwe do udostępnienia połączenie. Jeśli aplikacja power zostanie udostępniona innemu użytkownikowi, zostanie wyświetlony monit o jawne utworzenie nowego połączenia.
| Name | Typ | Description | Wymagane |
|---|---|---|---|
| Klucz interfejsu API | securestring | Wprowadź klucz interfejsu API jako "bearer YOUR_API_KEY" | Prawda |
Limity ograniczania
| Nazwa | Wywołania | Okres odnowienia |
|---|---|---|
| Wywołania interfejsu API na połączenie | 100 | 60 sekund |
Akcje
| GPT3 kończy monit |
GPT3 kończy monit |
| GPT3 kończy monit [PRZESTARZAŁE] |
GPT3 kończy monit (przestarzałe przez interfejs OpenAI — użyj Completion_New) |
| Osadzanie |
Pobieranie wektorowej reprezentacji danych wejściowych |
| Tworzenie obrazu |
DallE2 tworzy obraz na podstawie monitu |
| Uzupełnianie czatu |
Używanie modeli, takich jak ChatGPT i GPT4, do prowadzenia konwersacji |
GPT3 kończy monit
GPT3 kończy monit
Parametry
| Nazwa | Klucz | Wymagane | Typ | Opis |
|---|---|---|---|---|
|
Engine
|
model | True | string |
Używany model, wybierz między text-davinci-002, text-curie-001, text-babbage-001, text-ada-001 |
|
monit
|
prompt | True | string |
Tekst, który zostanie ukończony przez GPT3 |
|
n
|
n | integer |
Ile uzupełnień do wygenerowania dla każdego monitu |
|
|
najlepsze z
|
best_of | integer |
Jeśli ustawiono wartość większą niż 1, generuje wiele uzupełniania po stronie serwera i zwraca wartość "najlepszą". Musi być większe niż "n". Używaj z ostrożnością, może zużywać wiele tokenów. |
|
|
temperatura
|
temperature | float |
Wyższe wartości oznaczają, że model podejmie większe ryzyko. Wypróbuj 0,9, aby uzyskać więcej kreatywnych aplikacji i 0 (próbkowanie argmax) dla tych z dobrze zdefiniowaną odpowiedzią. Użyj tego or top p |
|
|
maksymalna liczba tokenów
|
max_tokens | integer |
Jeden token jest równy około 4 znaków tekstu (do 4000 tokenów między monitem a ukończeniem) |
|
|
góra p
|
top_p | float |
Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa. |
|
|
karę częstotliwości
|
frequency_penalty | float |
Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
|
|
kara obecności
|
presence_penalty | float |
Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że modele będą mówić o nowych tematach. |
|
|
stop
|
stop | array of string |
Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania |
Zwraca
| Nazwa | Ścieżka | Typ | Opis |
|---|---|---|---|
|
id
|
id | string |
id |
|
obiekt
|
object | string |
obiekt |
|
utworzone
|
created | integer |
utworzone |
|
choices
|
choices | array of object |
Zwrócone zakończenia |
|
Tekst
|
choices.text | string |
Tekst ukończenia |
|
Index
|
choices.index | integer |
Liczba ukończenia |
|
Przyczyna zakończenia
|
choices.finish_reason | string |
Przyczyna zakończenia tekstu (warunek zatrzymania / naturalny koniec / długość) |
|
Monituj tokeny
|
choices.usage.prompt_tokens | integer |
Liczba tokenów w wierszu polecenia |
|
Tokeny ukończenia
|
choices.usage.completion_tokens | integer |
Liczba tokenów w zakończeniu |
|
Łączna liczba tokenów
|
choices.usage.total_tokens | integer |
Łączna liczba tokenów w monitach i uzupełnianiu |
GPT3 kończy monit [PRZESTARZAŁE]
GPT3 kończy monit (przestarzałe przez interfejs OpenAI — użyj Completion_New)
Parametry
| Nazwa | Klucz | Wymagane | Typ | Opis |
|---|---|---|---|---|
|
Engine
|
engine | True | string |
Używany aparat, wybierz między text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001 |
|
monit
|
prompt | True | string |
Tekst, który zostanie ukończony przez GPT3 |
|
n
|
n | integer |
Ile uzupełnień do wygenerowania dla każdego monitu |
|
|
najlepsze z
|
best_of | integer |
Jeśli ustawiono wartość większą niż 1, generuje wiele uzupełniania po stronie serwera i zwraca wartość "najlepszą". Musi być większe niż "n". Używaj z ostrożnością, może zużywać wiele tokenów. |
|
|
temperatura
|
temperature | float |
Wyższe wartości oznaczają, że model podejmie większe ryzyko. Wypróbuj 0,9, aby uzyskać więcej kreatywnych aplikacji i 0 (próbkowanie argmax) dla tych z dobrze zdefiniowaną odpowiedzią. Użyj tego or top p |
|
|
maksymalna liczba tokenów
|
max_tokens | integer |
Jeden token jest równy około 4 znaków tekstu (do 4000 tokenów między monitem a ukończeniem) |
|
|
góra p
|
top_p | float |
Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa. |
|
|
karę częstotliwości
|
frequency_penalty | float |
Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
|
|
kara obecności
|
presence_penalty | float |
Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że modele będą mówić o nowych tematach. |
|
|
użytkownik
|
user | string |
Unikatowy identyfikator reprezentujący użytkownika końcowego, który pomoże usłudze OpenAI monitorować i wykrywać nadużycia |
|
|
stop
|
stop | array of string |
Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania |
Zwraca
| Nazwa | Ścieżka | Typ | Opis |
|---|---|---|---|
|
id
|
id | string |
id |
|
obiekt
|
object | string |
obiekt |
|
utworzone
|
created | integer |
utworzone |
|
choices
|
choices | array of object |
Zwrócone zakończenia |
|
Tekst
|
choices.text | string |
Tekst ukończenia |
|
Index
|
choices.index | integer |
Liczba ukończenia |
|
Logprobs
|
choices.logprobs | string |
Uwzględnij prawdopodobieństwa dziennika na tokenach logprobs najprawdopodobniej, a także wybrane tokeny. Jeśli na przykład logprobs ma wartość 3, interfejs API zwróci listę 3 najbardziej prawdopodobnych tokenów. |
|
Przyczyna zakończenia
|
choices.finish_reason | string |
Przyczyna zakończenia tekstu (warunek zatrzymania / naturalny koniec / długość) |
Osadzanie
Pobieranie wektorowej reprezentacji danych wejściowych
Parametry
| Nazwa | Klucz | Wymagane | Typ | Opis |
|---|---|---|---|---|
|
model
|
model | True | string |
model |
|
dane wejściowe
|
input | True | string |
dane wejściowe |
Zwraca
| Nazwa | Ścieżka | Typ | Opis |
|---|---|---|---|
|
obiekt
|
object | string |
obiekt |
|
dane
|
data | array of object |
dane |
|
obiekt
|
data.object | string |
obiekt |
|
embedding
|
data.embedding | array of float |
embedding |
|
indeks
|
data.index | integer |
indeks |
|
model
|
model | string |
model |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |
Tworzenie obrazu
DallE2 tworzy obraz na podstawie monitu
Parametry
| Nazwa | Klucz | Wymagane | Typ | Opis |
|---|---|---|---|---|
|
monit
|
prompt | True | string |
Monit opisujący obraz |
|
Liczba obrazów
|
n | integer |
Liczba obrazów z zakresu od 1 do 10 |
|
|
size
|
size | string |
Rozmiar wygenerowanych obrazów. 256x256, 512x512 lub 1024x1024 (wartość domyślna: 1024x1024) |
|
|
format
|
response_format | string |
Pobieranie adresu URL do obrazu lub odbieranie go w formacie base64 (domyślnie: adres URL) |
Zwraca
| Nazwa | Ścieżka | Typ | Opis |
|---|---|---|---|
|
dane
|
data | array of object |
dane |
|
URL
|
data.url | string |
Adres URL do utworzenia obrazu |
|
b64image
|
data.b64_json | byte |
Obraz w formacie base64 |
Uzupełnianie czatu
Używanie modeli, takich jak ChatGPT i GPT4, do prowadzenia konwersacji
Parametry
| Nazwa | Klucz | Wymagane | Typ | Opis |
|---|---|---|---|---|
|
model
|
model | True | string |
Używany model, wybierz między gpt-3.5-turbo, gpt-4 i inne |
|
rola
|
role | True | string |
Rola autora tej wiadomości. Jeden z systemów, użytkowników lub asystentów. |
|
zawartość
|
content | True | string |
Zawartość wiadomości. |
|
n
|
n | integer |
Ile uzupełnień do wygenerowania dla każdego monitu |
|
|
temperatura
|
temperature | float |
Wyższe wartości oznaczają, że model podejmie większe ryzyko. Wypróbuj 0,9, aby uzyskać więcej kreatywnych aplikacji i 0 (próbkowanie argmax) dla tych z dobrze zdefiniowaną odpowiedzią. Użyj tego or top p |
|
|
maksymalna liczba tokenów
|
max_tokens | integer |
Jeden token jest równy około 4 znaków tekstu (do 4000 lub więcej tokenów między monitem a ukończeniem, w zależności od modelu) |
|
|
góra p
|
top_p | float |
Alternatywa dla próbkowania z temperaturą, zwana próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z masą prawdopodobieństwa top_p. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny znajdujące się w górnych 10% masy prawdopodobieństwa. |
|
|
karę częstotliwości
|
frequency_penalty | float |
Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
|
|
kara obecności
|
presence_penalty | float |
Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że modele będą mówić o nowych tematach. |
|
|
stop
|
stop | array of string |
Maksymalnie 4 sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania |
Zwraca
| Nazwa | Ścieżka | Typ | Opis |
|---|---|---|---|
|
id
|
id | string |
id |
|
obiekt
|
object | string |
obiekt |
|
utworzone
|
created | integer |
utworzone |
|
choices
|
choices | array of object |
choices |
|
indeks
|
choices.index | integer |
indeks |
|
rola
|
choices.message.role | string |
rola |
|
zawartość
|
choices.message.content | string |
zawartość |
|
powód zakończenia
|
choices.finish_reason | string |
powód zakończenia |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
completion_tokens
|
usage.completion_tokens | integer |
completion_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |