Perplexity AI (Independent Publisher) (Vorschau)
Entsperren Sie den leistungsstärksten KI-Forschungsassistenten. Erhöhen Sie Perplexität auf die nächste Ebene mit mehr Copilot, aktualisierter KI, unbegrenztem Dateiupload und Webdienstzugriff. Upgrade auf Claude-2 oder GPT-4 für genauere Antworten, werden auch pplx-, Mistral- und Llama-Sprachmodelle verfügbar sein.
Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:
| Dienstleistung | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Logik-Apps | Norm | Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche: – Azure Government-Regionen - Azure China-Regionen - US Department of Defense (DoD) |
| Power Apps | Premium | Alle Power Apps-Regionen mit Ausnahme der folgenden: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Power Automate | Premium | Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Kontakt | |
|---|---|
| Name | Troy Taylor |
| URL | https://www.hitachisolutions.com |
| ttaylor@hitachisolutions.com |
| Connectormetadaten | |
|---|---|
| Herausgeber | Troy Taylor |
| Webseite | https://www.perplexity.ai/ |
| Datenschutzrichtlinie | https://blog.perplexity.ai/legal/privacy-policy |
| Kategorien | Künstliche Intelligenz |
Erstellen einer Verbindung
Der Connector unterstützt die folgenden Authentifizierungstypen:
| Vorgabe | Parameter zum Erstellen einer Verbindung. | Alle Regionen | Nicht teilbar |
Vorgabe
Anwendbar: Alle Regionen
Parameter zum Erstellen einer Verbindung.
Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| API-Schlüssel (im Format "Bearer YOUR_API_KEY") | securestring | Der API-Schlüssel (im Format "Bearer YOUR_API_KEY") für diese API | Richtig |
Drosselungsgrenzwerte
| Name | Aufrufe | Verlängerungszeitraum |
|---|---|---|
| API-Aufrufe pro Verbindung | 100 | 60 Sekunden |
Aktionen
| Chatabschluss abrufen |
Generiert die Antwort eines Modells für die angegebene Chatunterhaltung. |
Chatabschluss abrufen
Generiert die Antwort eines Modells für die angegebene Chatunterhaltung.
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Model
|
model | True | string |
Der Name des Modells, das Ihre Eingabeaufforderung abschließt. |
|
Rolle
|
role | True | string |
Die Rolle des Sprechers in dieser Unterhaltung. Nach der (optionalen) Systemmeldung sollten sich Benutzer- und Assistentenrollen mit dem Benutzer und dem Assistenten abwechseln, der auf den Benutzer endet. |
|
Content
|
content | True | string |
Der Inhalt der Nachricht in dieser Unterhaltung. |
|
Max. Token
|
max_tokens | integer |
Die maximale Anzahl von Abschlusstoken, die von der API zurückgegeben werden. Die Gesamtzahl der in max_tokens angeforderten Token sowie die Anzahl der in Nachrichten gesendeten Eingabeaufforderungstoken darf die Tokenbeschränkung des angeforderten Modells nicht überschreiten. Wenn nicht angegeben, generiert das Modell Token, bis es sein Stopptoken oder das Ende des Kontextfensters erreicht. |
|
|
Temperatur
|
temperature | double |
Die Zufallsmenge in der Antwort, die zwischen 0 einschließlich und 2 exklusiv geschätzt wird. Höhere Werte sind zufälliger, und niedrigere Werte sind deterministischer. Sie sollten entweder temperatur oder top_p, aber nicht beide festlegen. |
|
|
Oben P
|
top_p | double |
Die Kernsamplingsschwelle, die zwischen 0 und einschließlich 1 liegt. Für jedes nachfolgende Token berücksichtigt das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse. Sie sollten entweder die Temperatur oder top_p ändern, aber nicht beide. |
|
|
Oben K
|
top_k | double |
Die Anzahl der Token, die für die höchste Top-K-Filterung beibehalten werden sollen, die als ganze Zahl zwischen 0 und 2048 einschließlich angegeben wird. Bei Festlegung auf 0 ist die Top-K-Filterung deaktiviert. |
|
|
Anwesenheitsstrafe
|
presence_penalty | double |
Ein Wert zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. Inkompatibel mit Häufigkeitsstrafe. |
|
|
Häufigkeitsstrafe
|
frequency_penalty | double |
Eine multiplizierte Strafe größer als 0. Werte, die größer als 1,0 sind, bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. Ein Wert von 1,0 bedeutet keine Strafe. Inkompatibel mit Anwesenheitsstrafe. |
Gibt zurück
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
ID
|
id | string |
Der Bezeichner. |
|
Model
|
model | string |
Das Modell. |
|
Object
|
object | string |
Das Objekt. |
|
Erstellt
|
created | integer |
Beim Erstellen. |
|
Optionen
|
choices | array of object | |
|
Index
|
choices.index | integer |
Der Index. |
|
Endgrund
|
choices.finish_reason | string |
Der Endgrund |
|
Content
|
choices.message.content | string |
Der Inhalt. |
|
Rolle
|
choices.message.role | string |
Die Rolle. |
|
Content
|
choices.delta.content | string |
Der Inhalt. |
|
Rolle
|
choices.delta.role | string |
Die Rolle. |
|
Aufforderungstoken
|
usage.prompt_tokens | integer |
Die verwendeten Eingabeaufforderungstoken. |
|
Abschlusstoken
|
usage.completion_tokens | integer |
Die verwendeten Abschlusstoken. |
|
Gesamttoken
|
usage.total_tokens | integer |
Die verwendeten Gesamttoken. |