Freigeben über


Google Gemini (Unabhängiger Herausgeber) (Vorschau)

Benutzerdefinierter Connector für Google Gemini, der erweiterte Funktionen für die multi modale KI-Inhaltsgenerierung bereitstellt. Gemini ist eine Familie von multimodalen Großsprachmodellen, die von Google DeepMind entwickelt wurden und als Nachfolger von LaMDA und PaLM 2 dienen. Gemini Ultra, Gemini Pro und Gemini Nano, wurde am 6. Dezember 2023 angekündigt

Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:

Dienstleistung Class Regions
Copilot Studio Premium Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Logik-Apps Norm Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche:
     – Azure Government-Regionen
     - Azure China-Regionen
     - US Department of Defense (DoD)
Power Apps Premium Alle Power Apps-Regionen mit Ausnahme der folgenden:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Power Automate Premium Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Kontakt
Name Priyaranjan KS , Vidya Sagar Alti [Tata Consulting Services]
URL https://www.tcs.com
Email priyaranjan.sathyavrathan@tcs.com
Connectormetadaten
Herausgeber Priyaranjan KS , Vidya Sagar Alti [Tata Consulting Services]
Webseite https://ai.google.dev/
Datenschutzrichtlinie https://policies.google.com/privacy
Kategorien Künstliche Intelligenz

Erstellen einer Verbindung

Der Connector unterstützt die folgenden Authentifizierungstypen:

Vorgabe Parameter zum Erstellen einer Verbindung. Alle Regionen Nicht teilbar

Vorgabe

Anwendbar: Alle Regionen

Parameter zum Erstellen einer Verbindung.

Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.

Name Typ Description Erforderlich
API-Schlüssel securestring Der API-Schlüssel für diese API Richtig

Drosselungsgrenzwerte

Name Aufrufe Verlängerungszeitraum
API-Aufrufe pro Verbindung 100 60 Sekunden

Aktionen

Abrufen aller Modelle

Ruft eine Liste aller verfügbaren Modelle mit ihren Details ab.

Einbetten generieren

Dieser Endpunkt wurde entwickelt, um einen Einbettungsvektor für den bereitgestellten Textinhalt zu generieren, der für verschiedene Verarbeitungsaufgaben in natürlicher Sprache verwendet werden kann, z. B. Textähnlichkeit, Klassifizierung und Clustering.

Generieren von Batcheinbettungen

Generiert Einbettungsvektoren für eine Reihe von Textinhalten.

Generieren von mehr modalem Inhalt

Generiert eine Antwort aus dem Modell, das eine Eingabenachricht und ein Bild oder Video erhält.

Generieren von Streaminhalten

Standardmäßig gibt das Modell eine Antwort zurück, nachdem der gesamte Generierungsprozess abgeschlossen wurde. Sie können schnellere Interaktionen erzielen, indem Sie nicht auf das gesamte Ergebnis warten und stattdessen Streaming verwenden, um Teilergebnisse zu verarbeiten.

Generieren von Textinhalten

Generiert eine Textantwort aus dem Modell, das eine Eingabenachricht erhält.

Modelldetails abrufen

Ruft Details eines bestimmten Modells basierend auf dem bereitgestellten Modellnamen ab.

Zählen von Token

Zählt die Anzahl der Token in einem bestimmten Text mithilfe des Generative Language Model.

Abrufen aller Modelle

Ruft eine Liste aller verfügbaren Modelle mit ihren Details ab.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
apiVersion True string

API-Version, z. B. 'v1beta'.

Gibt zurück

Name Pfad Typ Beschreibung
models
models array of object
name
models.name string

Eindeutiger Bezeichner des Modells.

Ausgabe
models.version string

Version des Modells.

Anzeigename
models.displayName string

Anzeigename des Modells.

Beschreibung
models.description string

Beschreibung des Modells.

inputTokenLimit
models.inputTokenLimit integer

Die maximale Anzahl von Eingabetoken, die das Modell verarbeiten kann.

outputTokenLimit
models.outputTokenLimit integer

Die maximale Anzahl von Ausgabetoken, die das Modell generieren kann.

supportedGenerationMethods
models.supportedGenerationMethods array of string

Liste der unterstützten Generationsmethoden nach dem Modell.

Temperatur
models.temperature number

Standardtemperatureinstellung für das Modell. Nicht für alle Modelle vorhanden.

topP
models.topP number

Standardmäßige TopP-Einstellung für das Modell. Nicht für alle Modelle vorhanden.

topK
models.topK number

Standardeinstellung für topK für das Modell. Nicht für alle Modelle vorhanden.

Einbetten generieren

Dieser Endpunkt wurde entwickelt, um einen Einbettungsvektor für den bereitgestellten Textinhalt zu generieren, der für verschiedene Verarbeitungsaufgaben in natürlicher Sprache verwendet werden kann, z. B. Textähnlichkeit, Klassifizierung und Clustering.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
apiVersion True string

Die Version der zu verwendenden API. Dieser Parameter definiert das Versionsverwaltungsschema des API-Endpunkts. Eg- 'v1beta'

Modellname
modelName True string

Der Name des Modells, das zum Generieren der Einbettung verwendet werden soll. Der Modellname sollte einem der modelle entsprechen, die in der API verfügbar sind. Eg- "embedding-001"

Modellressourcenname
model True string

Bezeichner des Modells, das für die Einbettungsgenerierung verwendet wird. Dies sollte mit dem Format "models/{modelName}" übereinstimmen.

Text
text string

Required.The text content for which the embedding is generated.

Vorgangstyp
taskType string

Optional.Der Typ des Vorgangs, für den die Einbettung vorgesehen ist. Dieser Parameter hilft dem Modell, den Kontext zu verstehen, in dem die Einbettung generiert wird.

Title
title string

Optional.Ein optionaler Titel für den Inhalt. Dies gilt für bestimmte Vorgangstypen wie RETRIEVAL_DOCUMENT.

Gibt zurück

Name Pfad Typ Beschreibung
values
embedding.values array of number

Ein Array numerischer Werte, die die generierte Einbettung darstellen.

Generieren von Batcheinbettungen

Generiert Einbettungsvektoren für eine Reihe von Textinhalten.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
apiVersion True string

API-Version, z. B. 'v1beta'.

Modellname
modelName True string

Modellname, z. B. "embedding-001".

Model
model True string

Bezeichner des Modells, das für die Einbettungsgenerierung verwendet wird. Dies sollte mit dem Format "models/{modelName}" übereinstimmen.

Text
text string

Required.The text content for which the embedding is generated.

Gibt zurück

Name Pfad Typ Beschreibung
embeddings
embeddings array of object
values
embeddings.values array of number

Ein Array numerischer Werte, die die generierte Einbettung darstellen.

Generieren von mehr modalem Inhalt

Generiert eine Antwort aus dem Modell, das eine Eingabenachricht und ein Bild oder Video erhält.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
apiVersion True string

API-Version, die für den Vision-Endpunkt verwendet werden soll. Eg- v1beta

Basismodellname
modelName True string

Name des Basismodells. Eg- Enter Gemini-Pro und entsprechendes Visionsmodell (Gemini-Pro-Vision) wird verwendet

Rolle
role string

Wahlfrei. Der Produzent des Inhalts. Muss entweder "Benutzer" oder "Modell" sein.

Bestandteile
Parts object
Kategorie
category string

Optional.Die Kategorie des zu filternden Inhalts.

Schwellenwert
threshold string

Optional.Der Schwellenwert zum Filtern von Inhalten in der angegebenen Kategorie.

Max. Ausgabetoken
maxOutputTokens integer

Optional.Die maximale Anzahl von Token, die in einen Vision-Kandidaten eingeschlossen werden sollen.

Temperatur
temperature number

Optional.Steuert die Zufälligkeit der Vision-Ausgabe.

Oben P
topP number

Optional.Die maximale kumulierte Wahrscheinlichkeit von Token, die beim Sampling berücksichtigt werden sollen.

Oben K
topK integer

Optional.Die maximale Anzahl von Token, die beim Sampling berücksichtigt werden sollen.

Stoppsequenzen
stopSequences array of string

Optional.Der Satz von Zeichensequenzen, die die Generierung der Textausgabe beenden.

Gibt zurück

Name Pfad Typ Beschreibung
Kandidaten
candidates array of object
Teile
candidates.content.parts array of object
items
candidates.content.parts object
finishReason
candidates.finishReason string
index
candidates.index integer
safetyRatings
candidates.safetyRatings array of object
Kategorie
candidates.safetyRatings.category string
Wahrscheinlichkeit
candidates.safetyRatings.probability string
safetyRatings
promptFeedback.safetyRatings array of object
Kategorie
promptFeedback.safetyRatings.category string
Wahrscheinlichkeit
promptFeedback.safetyRatings.probability string

Generieren von Streaminhalten

Standardmäßig gibt das Modell eine Antwort zurück, nachdem der gesamte Generierungsprozess abgeschlossen wurde. Sie können schnellere Interaktionen erzielen, indem Sie nicht auf das gesamte Ergebnis warten und stattdessen Streaming verwenden, um Teilergebnisse zu verarbeiten.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
apiVersion True string

API-Version, z. B. 'v1beta'.

Modellname
modelName True string

Modellname, z. B. "Gemini-Pro".

Rolle
role string

Der Produzent des Inhalts. Muss entweder "Benutzer" oder "Modell" sein.

Text
text string

Erforderlich. Textinhalt, der verarbeitet werden soll.

Kategorie
category string

Wahlfrei. Kategorie des zu filternden Inhalts.

Schwellenwert
threshold string

Wahlfrei. Schwellenwert für inhaltsfilterung.

Temperatur
temperature number

Wahlfrei. Steuert die Zufälligkeit in der Antwort. Höhere Werte führen zu unterschiedlicheren Antworten.

Max. Ausgabetoken
maxOutputTokens integer

Wahlfrei. Maximale Anzahl von Token im generierten Inhalt.

Oben P
topP number

Wahlfrei. Steuert die Vielfalt der Antwort. Höhere Werte führen zu vielfältigeren Antworten.

Oben K
topK integer

Wahlfrei. Begrenzt die Anzahl der Token mit hoher Wahrscheinlichkeit, die bei jedem Schritt berücksichtigt werden.

Kandidatenanzahl
candidateCount integer

Wahlfrei. Anzahl der zu generierenden Kandidatenantworten.

Stoppsequenzen
stopSequences array of string

Optional.Der Satz von Zeichensequenzen, die die Generierung der Textausgabe beenden.

Gibt zurück

Name Pfad Typ Beschreibung
array of object
Kandidaten
candidates array of object
Teile
candidates.content.parts array of object
Text
candidates.content.parts.text string
role
candidates.content.role string
finishReason
candidates.finishReason string
index
candidates.index integer
safetyRatings
candidates.safetyRatings array of object
Kategorie
candidates.safetyRatings.category string
Wahrscheinlichkeit
candidates.safetyRatings.probability string
safetyRatings
promptFeedback.safetyRatings array of object
Kategorie
promptFeedback.safetyRatings.category string
Wahrscheinlichkeit
promptFeedback.safetyRatings.probability string

Generieren von Textinhalten

Generiert eine Textantwort aus dem Modell, das eine Eingabenachricht erhält.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
apiVersion True string

API-Version, die für den Endpunkt verwendet werden soll. Eg- v1beta

Modellname
modelName True string

Name des Modells, das für die Textgenerierung verwendet werden soll. Eg - Gemini-Pro

Rolle
role string

Wahlfrei. Der Produzent des Inhalts. Muss entweder "Benutzer" oder "Modell" sein.

Text
text True string

Required.Text zum Generieren der Antwort.

Kategorie
category string

Optional.Die Kategorie des zu filternden Inhalts.

Schwellenwert
threshold string

Optional.Der Schwellenwert zum Filtern von Inhalten in der angegebenen Kategorie.

Max. Ausgabetoken
maxOutputTokens integer

Optional.Die maximale Anzahl von Token, die in einen Textkandidaten eingeschlossen werden sollen.

Temperatur
temperature number

Optional.Steuert die Zufälligkeit der Textausgabe.

Oben P
topP number

Optional.Die maximale kumulierte Wahrscheinlichkeit von Token, die beim Sampling berücksichtigt werden sollen.

Oben K
topK integer

Optional.Die maximale Anzahl von Token, die beim Sampling berücksichtigt werden sollen.

Kandidatenanzahl
candidateCount integer

Wahlfrei. Anzahl der zu generierenden Kandidatenantworten.

Stoppsequenzen
stopSequences array of string

Optional.Der Satz von Zeichensequenzen, die die Generierung der Textausgabe beenden.

Gibt zurück

Name Pfad Typ Beschreibung
Kandidaten
candidates array of object
Teile
candidates.content.parts array of object
Text
candidates.content.parts.text string
finishReason
candidates.finishReason string
index
candidates.index integer
safetyRatings
candidates.safetyRatings array of object
Kategorie
candidates.safetyRatings.category string
Wahrscheinlichkeit
candidates.safetyRatings.probability string
safetyRatings
promptFeedback.safetyRatings array of object
Kategorie
promptFeedback.safetyRatings.category string
Wahrscheinlichkeit
promptFeedback.safetyRatings.probability string

Modelldetails abrufen

Ruft Details eines bestimmten Modells basierend auf dem bereitgestellten Modellnamen ab.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
apiVersion True string

API-Version, z. B. 'v1beta'.

Modellname
modelName True string

Modellname, z. B. "Gemini-Pro".

Gibt zurück

Name Pfad Typ Beschreibung
name
name string

Eindeutiger Bezeichner des Modells.

Ausgabe
version string

Version des Modells.

Anzeigename
displayName string

Anzeigename des Modells.

Beschreibung
description string

Beschreibung des Modells.

inputTokenLimit
inputTokenLimit integer

Die maximale Anzahl von Eingabetoken, die das Modell verarbeiten kann.

outputTokenLimit
outputTokenLimit integer

Die maximale Anzahl von Ausgabetoken, die das Modell generieren kann.

supportedGenerationMethods
supportedGenerationMethods array of string

Liste der unterstützten Generationsmethoden nach dem Modell.

Temperatur
temperature number

Standardtemperatureinstellung für das Modell.

topP
topP number

Standardmäßige TopP-Einstellung für das Modell.

topK
topK number

Standardeinstellung für topK für das Modell.

Zählen von Token

Zählt die Anzahl der Token in einem bestimmten Text mithilfe des Generative Language Model.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
apiVersion True string

API-Version, die für den Vision-Endpunkt verwendet werden soll. Eg- 'v1beta'

Modellname
modelName True string

Modellname, z. B. "Gemini-Pro".

Text
text string

Erforderlich. Textinhalt, für den die Tokenanzahl bestimmt werden soll.

Gibt zurück

Name Pfad Typ Beschreibung
totalTokens
totalTokens integer

Die Gesamtzahl der Token im bereitgestellten Text.