Perplexity AI (niezależny wydawca) (wersja zapoznawcza)
Odblokuj najbardziej zaawansowanego asystenta badawczego sztucznej inteligencji. Podnieś poziom perplexity do następnego poziomu dzięki większej liczbie Copilot, uaktualnionej sztucznej inteligencji, nieograniczonego przekazywania plików i dostępu do usługi internetowej. Uaktualnij do wersji Claude-2 lub GPT-4, aby uzyskać dokładniejsze odpowiedzi, dostępne będą również modele języków pplx, Mistral i Llama.
Ten łącznik jest dostępny w następujących produktach i regionach:
| Usługa | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Wszystkie regiony usługi Power Automate z wyjątkiem następujących: - Rząd USA (GCC) - Rząd USA (GCC High) - China Cloud obsługiwane przez firmę 21Vianet - Departament Obrony USA (DoD) |
| Logic Apps | Standard | Wszystkie regiony usługi Logic Apps z wyjątkiem następujących: — Regiony platformy Azure Government — Regiony platformy Azure (Chiny) - Departament Obrony USA (DoD) |
| Power Apps | Premium | Wszystkie regiony usługi Power Apps z wyjątkiem następujących: - Rząd USA (GCC) - Rząd USA (GCC High) - China Cloud obsługiwane przez firmę 21Vianet - Departament Obrony USA (DoD) |
| Power Automate | Premium | Wszystkie regiony usługi Power Automate z wyjątkiem następujących: - Rząd USA (GCC) - Rząd USA (GCC High) - China Cloud obsługiwane przez firmę 21Vianet - Departament Obrony USA (DoD) |
| Kontakt | |
|---|---|
| Name | Troy Taylor |
| adres URL | https://www.hitachisolutions.com |
| ttaylor@hitachisolutions.com |
| Metadane łącznika | |
|---|---|
| Publisher | Troy Taylor |
| Witryna internetowa | https://www.perplexity.ai/ |
| Zasady ochrony prywatności | https://blog.perplexity.ai/legal/privacy-policy |
| Kategorie | AI |
Tworzenie połączenia
Łącznik obsługuje następujące typy uwierzytelniania:
| Wartość domyślna | Parametry tworzenia połączenia. | Wszystkie regiony | Nie można udostępniać |
Domyślny
Dotyczy: wszystkie regiony
Parametry tworzenia połączenia.
Nie jest to możliwe do udostępnienia połączenie. Jeśli aplikacja power zostanie udostępniona innemu użytkownikowi, zostanie wyświetlony monit o jawne utworzenie nowego połączenia.
| Name | Typ | Description | Wymagane |
|---|---|---|---|
| Klucz interfejsu API (w postaci "Bearer YOUR_API_KEY") | securestring | Klucz interfejsu API (w postaci "Bearer YOUR_API_KEY" dla tego interfejsu API | Prawda |
Limity ograniczania
| Nazwa | Wywołania | Okres odnowienia |
|---|---|---|
| Wywołania interfejsu API na połączenie | 100 | 60 sekund |
Akcje
| Uzyskiwanie ukończenia czatu |
Generuje odpowiedź modelu na daną konwersację na czacie. |
Uzyskiwanie ukończenia czatu
Generuje odpowiedź modelu na daną konwersację na czacie.
Parametry
| Nazwa | Klucz | Wymagane | Typ | Opis |
|---|---|---|---|---|
|
Model
|
model | True | string |
Nazwa modelu, który zakończy monit. |
|
Role
|
role | True | string |
Rola osoby mówiącej z tej kolei konwersacji. Po komunikacie systemowym (opcjonalnie) role użytkownika i asystenta powinny być alternatywne z asystentem użytkownika, kończąc na użytkowniku. |
|
Content
|
content | True | string |
Zawartość wiadomości z tej kolei konwersacji. |
|
Maksymalna liczba tokenów
|
max_tokens | integer |
Maksymalna liczba tokenów ukończenia zwracanych przez interfejs API. Łączna liczba tokenów żądanych w max_tokens oraz liczba tokenów monitu wysłanych w komunikatach nie może przekraczać limitu tokenu okna kontekstu żądanego modelu. Jeśli model nie zostanie określony, wygeneruje tokeny do momentu osiągnięcia tokenu zatrzymania lub końca okna kontekstowego. |
|
|
Temperatura
|
temperature | double |
Ilość losowości w odpowiedzi, wartości z zakresu od 0 do 2 na wyłączność. Wyższe wartości są bardziej losowe, a niższe wartości są bardziej deterministyczne. Należy ustawić temperaturę lub top_p, ale nie obie. |
|
|
Góra P
|
top_p | double |
Próg próbkowania jądra o wartości od 0 do 1 włącznie. Dla każdego kolejnego tokenu model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Należy zmienić temperaturę lub top_p, ale nie obie. |
|
|
Góra K
|
top_k | double |
Liczba tokenów do zachowania dla najwyższego filtrowania top-k, określona jako liczba całkowita z przedziału od 0 do 2048 włącznie. W przypadku ustawienia wartości 0 filtrowanie top-k jest wyłączone. |
|
|
Kara obecności
|
presence_penalty | double |
Wartość z zakresu od -2.0 do 2.0. Dodatnie wartości nakładają karę na nowe tokeny na podstawie tego, czy pojawiają się one w tekście do tej pory, zwiększając prawdopodobieństwo, że model zacznie poruszać nowe tematy. Niezgodne z karą częstotliwości. |
|
|
Częstotliwość kary
|
frequency_penalty | double |
Mnożenie kary większej niż 0. Wartości większe niż 1,0 karają nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Wartość 1,0 oznacza brak kary. Niezgodne z karą obecności. |
Zwraca
| Nazwa | Ścieżka | Typ | Opis |
|---|---|---|---|
|
identyfikator
|
id | string |
Identyfikator. |
|
Model
|
model | string |
Model. |
|
Object
|
object | string |
Obiekt. |
|
Created
|
created | integer |
Po utworzeniu. |
|
Choices
|
choices | array of object | |
|
Index
|
choices.index | integer |
Indeks. |
|
Przyczyna zakończenia
|
choices.finish_reason | string |
Przyczyna zakończenia |
|
Content
|
choices.message.content | string |
Zawartość. |
|
Role
|
choices.message.role | string |
Rola. |
|
Content
|
choices.delta.content | string |
Zawartość. |
|
Role
|
choices.delta.role | string |
Rola. |
|
Monituj tokeny
|
usage.prompt_tokens | integer |
Używane tokeny monitu. |
|
Tokeny ukończenia
|
usage.completion_tokens | integer |
Używane tokeny uzupełniania. |
|
Łączna liczba tokenów
|
usage.total_tokens | integer |
Łączna liczba użytych tokenów. |