Freigeben über


Häufig gestellte Fragen zu Prompts

Diese häufig gestellten Fragen (FAQ) beschreiben die Auswirkungen von Prompt Builder auf die KI.

Was sind Eingabeaufforderungen?

Die Eingabeaufforderungsfunktion im Eingabeaufforderungsersteller bietet Benutzern eine vielseitige Funktion für die Entwicklung von KI-gestützten Workflows, Anwendungen, Datentransformation und Anpassung von Copiloten. Es ermöglicht die Erstellung von Workflows und Anwendungen, die Dokumente zusammenfassen, Antwortentwürfe erstellen, Texte klassifizieren und Sprachen übersetzen. Diese Funktion wird vom Azure OpenAI-Dienst unterstützt, der auf der „Generative Pre-trained Transformer“-(GPT-)Technologie basiert. Diese Modelle wurden auf riesigen Mengen von Textdaten trainiert, um Text zu generieren, der von Menschen geschriebenen Inhalten ähnelt.

Mehr erfahren Sie unter Transparenzhinweis für Azure OpenAI-Dienst.

Was sind die beabsichtigten Anwendungsfälle von Eingabeaufforderungen?

Eingabeaufforderungen im Eingabeaufforderungsgenerator ermöglichen es Ihnen, intelligente Anwendungen und Workflows zu erstellen und Copiloten zu erweitern. Sie nutzen die Fähigkeiten vorab trainierter GPT-Modelle und machen ein benutzerdefiniertes Modelltraining überflüssig. Die Absicht könnte beispielsweise darin bestehen, einen Workflow zu erstellen, der eingehende Kundenbeschwerden zusammenfasst. Anschließend wird in einem Vorfallmanagement-Tool basierend auf der Kategorie der eingehenden Beschwerde ein Ticket erstellt. In diesem Beispiel können Ersteller das Modell anweisen, die eingehende Beschwerde zu kategorisieren und zusammenzufassen, um einen neuen Vorfall zu erstellen.

Die folgende Liste enthält die beliebtesten Anwendungsfälle für diesen Dienst:

  • Zusammenfassung von E-Mails, Gesprächen, Transkripten, Dokumenten und mehr.
  • Vorschläge für Antwortentwürfe auf Kundenanfragen, Beschwerden, E-Mails und mehr.
  • Extraktion von Informationen aus Verträgen, E-Mails, Rechnungen, Bestellungen und mehr.
  • Klassifizierung von Inhalten in gewünschte Kategorien (zum Beispiel, ob es sich bei einer E-Mail um eine Bestellung, eine Reklamation oder eine Retoure) handelt.
  • Stimmungsanalyse eines bestimmten Textes (zum Beispiel Ermittlung der Stimmung einer Produktrezension).

In all diesen Fällen sind die Benutzenden für das Endergebnis des Systems verantwortlich. Sie sind verpflichtet, die generierten Inhalte vor der Verwendung auf mögliche Ungenauigkeiten oder Unvollständigkeiten zu überprüfen.

Wie wurde die Bereitschaft der Eingabeaufforderungsfunktion bewertet? Welche Metriken werden verwendet, um die Leistung zu messen?

Die Auswertung dieser Funktion erfordert umfassende Tests einer Reihe von Sicherheitsparametern. Diese Tests stellen sicher, dass die Funktion mit den Standards und Grundsätzen für verantwortungsvolle KI unserer Organisation übereinstimmt. Der Dienst wird außerdem kontinuierlich auf mögliche Schwachstellen überprüft. Die von uns verwendeten Leistungsmetriken umfassen in erster Linie die Effizienz der Inhaltsfilterung und den Grad der Übereinstimmung zwischen Mensch und Maschine bei gefilterten und ungefilterten Inhalten.

Welche Art der Inhaltsmoderation ist für Eingabeaufforderungen implementiert?

Die GPT-Modelle werden auf Internetdaten trainiert, was sich hervorragend zum Aufbau eines allgemeinen Weltmodells eignet. Gleichzeitig kann es toxische, schädliche und voreingenommene Inhalte aus denselben Quellen übernehmen. Die Modelle sind darauf trainiert, sich sicher zu verhalten und keine schädlichen Inhalte zu produzieren, aber manchmal kann es zu toxischen Ausgaben kommen. Eingabeaufforderungen des Eingabeaufforderungsgenerators nutzen den Azure AI Content Satefy-Dienst , um hochmoderne Funktionen zur Inhaltsmoderation in die KI-Eingabeaufforderungen zu integrieren. Dazu gehören Dienste zur Analyse der generierten Ausgabe mit Textscannern für mehrere Schweregrade und Schutz vor Eingabeaufforderungs-Einschleusngriffen. Die Ausgabe wird auch auf die Nutzung von geschütztem Material überprüft.

Welche Einschränkungen bestehen bei der Eingabeaufforderungsfunktion? Wie können Benutzende die Auswirkungen der Eingabeaufforderungseinschränkungen bei der Verwendung des Systems minimieren?

Die Nutzung dieser Technologie muss im Einklang mit den Anforderungen des Verhaltenskodex für den Azure OpenAI-Service erfolgen. Diese Technologie darf nicht zur Generierung von Inhalten verwendet werden, die mit politischer Propaganda, Hassreden, Fehlinformationen, Selbstverletzung, Diskriminierung, explizitem sexuellem Material oder anderen durch den Verhaltenskodex verbotenen Inhalten in Zusammenhang stehen. Zu den nicht unterstützten Anwendungen dieser Technologie gehören die Bereitstellung von Ratschlägen, die Verwendung für rechtliche, finanzielle, gesundheitsbezogene Beratung oder Zukunftsprognosen sowie finanzielle, wissenschaftliche oder mathematische Berechnungen und jede andere nicht unterstützte Verwendung, die in Transparenzhinweis für Azure OpenAI Service erwähnt wird.

KI-generierte Inhalte können Fehler enthalten. Daher sollten Erstellende die Endbenutzenden ihrer Lösung darüber informieren, dass die Inhaltsgenerierung durch dieses Modell auf transparente Weise von KI erstellt wird. Eine klare Kommunikation der generierten Inhalte hilft, übermäßiges Vertrauen zu vermeiden. Erstellende sollte auch die Möglichkeit einer menschlichen Überprüfung einbeziehen, um sicherzustellen, dass der von der KI generierte Inhalt korrekt und angemessen ist, bevor er verwendet wird.

Welche betrieblichen Faktoren und Einstellungen lassen eine effektive und verantwortungsvolle Nutzung des Systems zu?

Vom KI-Modell generierte Inhalte sind probabilistischer Natur und daher können die Modellantworten für dieselbe Eingabeaufforderung unterschiedlich sein. Die generierte Antwort ist möglicherweise falsch oder irreführend und kann zu unbeabsichtigten Ergebnissen des Flows oder der App führen. Beispielsweise können Geschäftskunden falsche oder irreführende Informationen, Empfehlungen oder Support erhalten. Ersteller sollten eine sinnvolle menschliche Aufsicht in ihren Flows und Apps implementieren und ihre Eingabeaufforderungen auf das Potenzial testen, schädliches Verhalten oder verbotene Inhalte zu generieren, wie im Microsoft-Verhaltenskodex aufgeführt. Low-Code-Entwickler sollten auch den Einsatz von KI in ihren Apps und Abläufen transparent machen, um den Geschäftsanwender darüber zu informieren, dass der Inhalt von KI generiert wird. Darüber hinaus entsprechen die generierten Antworten aufgrund von Längenbeschränkungen, Inhaltsfilterung oder Modellauswahl möglicherweise nicht den Erwartungen der Low-Code-Entwickelnden.

Wie heißt das GPT-Modell, wo wird es gehostet und wie kann ich darauf zugreifen?

Der Eingabeaufforderungs-Generator unterstützt GPT 4.1 mini-, GPT 4.o-, GPT 4.1- und o3-Modelle, die im Azure OpenAI Service gehostet werden. Sie können über die Eingabeaufforderungen Power Platform in Ihren Anwendungen, Flows und Copilot auf diese Modelle zugreifen.

Weitere Informationen finden Sie unter Welche Neuerungen gibt es im Azure OpenAI Dienst?

Werden meine Daten verwendet, um die großen Sprachmodelle zu trainieren oder zu verbessern, die im Eingabeaufforderungsgenerator verfügbar sind?

Eingabeaufforderungen des Eingabeaufforderungsgenerators werden im Azure OpenAI-Dienst ausgeführt, der von Microsoft gehostet wird. Kundendaten werden nicht zum Trainieren oder Verbessern der Azure OpenAI Service-Grundlagenmodelle verwendet. Microsoft gibt Ihre Kundendaten nicht an Dritte weiter, es sei denn, Sie haben dazu Ihre Einwilligung erteilt. Weder Kundenprompts (Eingaben) mit ihren Basisdaten noch die Modellantworten (Ausgaben) werden zum Trainieren oder Verbessern der Grundlagenmodelle des Azure OpenAI-Dienstes verwendet.

Ist der Inhalt, der zur Aktion „Eine Eingabeaufforderung ausführen“ hinzugefügt wird, öffentlich zugänglich?

Auf der Registerkarte Info der Aktion steht: Diese Aktion bietet Zugriff auf Ihre Eingabeaufforderungen unter Nutzung des GPT-Modells, die auf dem Azure OpenAI Dienst ausgeführt werden.

Die Eingabeaufforderungen, die Sie der Aktion Aktion Eingabeaufforderung ausführen in Power Automate hinzufügen, sind standardmäßig privat. Sie sind nur innerhalb Ihrer Organisation sicht- und nutzbar und nicht für die ganze Welt zugänglich. Die Eingabeaufforderungen sind privat und für den internen Gebrauch in Ihrem Unternehmen bestimmt.

Neu erstellte Eingabeaufforderungen sind standardmäßig privat. Das bedeutet, dass sie in Power Automate, Power Apps und Microsoft Copilot Studio nur für diejenigen sichtbar und nutzbar sind, die sie erstellt haben. Dies gibt den Erstellenden Zeit, sie in Apps oder Workflows zu testen und zu bewerten und sicherzustellen, dass sie richtig sind, bevor sie sie freigeben.

Wenn Sie möchten, dass andere Benutzer der Umgebung oder Gruppen Ihre Eingabeaufforderung in Power Apps oder Power Automate verwenden, müssen Sie sie freigeben.

Weitere Informationen finden Sie unter Teilen Ihrer Eingabeaufforderung.

Wie werden Bilder von Personen in Eingabeaufforderungen zum Erstellen von Eingabeaufforderungen verarbeitet?

Der Prompt Builder ist nicht für die Identifizierung von Personen anhand von Gesichtsmerkmalen oder biometrischen Daten gedacht. Wenn Sie Bilder mit Personen in Prompt Builder einreichen, wendet das System automatisch eine Gesichtsunschärfefunktion an, bevor die Bilder analysiert werden, um die Privatsphäre des Einzelnen zu schützen. Dieser Schritt zur Unschärfe trägt dazu bei, Datenschutzbedenken auszuräumen, indem die Identifizierung anhand von Gesichtsmerkmalen verhindert wird. Beim Verwischen werden keine Gesichtserkennung und kein Abgleich von Gesichtsvorlagen eingesetzt. Stattdessen beruht jede Identifizierung bekannter Personen auf kontextuellen Hinweisen wie Uniformen oder einzigartigen Umgebungen, nicht auf ihren Gesichtern. Diese Datenschutzmaßnahme sollte sich nicht auf die Qualität der Ergebnisse auswirken, die Sie erhalten. Gelegentlich kann in den Antworten des Systems auf das Verwischen des Gesichts verwiesen werden.

Weitere Informationen finden Sie unter Gesichter unscharf machen.

Potenzielle Schäden beim Verwenden von Bildern oder Dokumenten in Eingabeaufforderungen

Der Eingabeaufforderungs-Generator mindert die meisten Risiken, die mit der Verwendung von Bildern oder Dokumenten in Eingabeaufforderungen verbunden sind, aber einige Risiken erfordern dennoch besondere Sorgfalt vom Ersteller der Eingabeaufforderung:

  • Bilder oder Dokumente können schädlichen Text oder Inhalte enthalten, die sich auf Ihre nachgelagerten Prozesse auswirken könnten.
  • Bilder oder Dokumente können spezielle und möglicherweise versteckte Anweisungen enthalten, die die ursprüngliche Eingabeaufforderung kompromittieren oder überschreiben könnten.
  • Bilder oder Dokumente können Anweisungen enthalten, die zur Erstellung von Inhalten führen könnten, die dem geistigen Eigentum (IP) unterliegen.
  • Eingabeaufforderungen können zu voreingenommenen Kommentaren zu Bildern oder Dokumenten führen.
  • Das Extrahieren von Informationen aus minderwertigen Bildern oder Dokumenten kann zu Fehlinterpretationen führen.

Worin unterscheidet sich das o3-Modell von den GPT-Modellen?

Das o3-Modell zeichnet sich gegenüber GPT-Modellen hauptsächlich durch seine fortschrittlichen Fähigkeiten im Bereich des logischen Denkens aus. Es erzeugt detaillierte interne Gedankengänge, bevor es antwortet, was zu einer verbesserten Leistung in Mathematik, Programmierung und analytischen Aufgaben führt. Diese Vorgehensweise führt jedoch zu erhöhten Rechenanforderungen und langsameren Reaktionszeiten im Vergleich zu GPT-Modellen. GPT-4o oder GPT-4.1 zum Beispiel zeichnet sich durch allgemeine Sprachaufgaben aus und bietet schnellere, kostengünstige Antworten, wodurch es sich für Anwendungen eignet, bei denen schnelle Ausgaben unerlässlich sind.

Was sind Eingabeaufforderungen und KI-Funktionen?

Aufforderungen

Eingabeaufforderungen geben Entwicklern die Freiheit, das Large Language Model (LLM) anzuweisen, sich auf eine bestimmte Weise zu verhalten oder eine bestimmte Aufgabe auszuführen. Durch die sorgfältige Ausarbeitung einer Eingabeaufforderung können Sie Antworten generieren, die Ihren spezifischen Geschäftsanforderungen entsprechen. Dadurch wird das LLM-Modell zu einem flexiblen Werkzeug zur Erfüllung verschiedener Aufgaben.

Bei einem Sprachmodell kann z. B. eine Eingabeaufforderung das Modell anleiten, eine Frage zu beantworten, Text zu vervollständigen, Sprachen zu übersetzen, ein Dokument zusammenzufassen und Aufgaben, Aufgaben und Aktionselemente im Text zu identifizieren. Die Komplexität einer benutzerdefinierten Eingabeaufforderung kann je nach Aufgabe von einem einzelnen Satz bis zu etwas Komplizierterem reichen.

KI-Funktionen

Vorgefertigte KI-Funktionen sind vorkonfigurierte Eingabeaufforderungen, die vom Microsoft-Team erstellt wurden, um Entwickelnden dabei zu helfen, häufige Aufgaben einfach zu erledigen. Sie bieten gebrauchsfertige KI-Funktionen für verschiedene Anwendungsfälle, was es den Erstellenden erleichtert, Intelligenz in ihre Lösungen einzubringen.

Die vordefinierte Eingabeaufforderung eines Sprachmodells könnte z. B. wie folgt aussehen:

Extrahieren Sie die Aktionspunkte als nummerierte Liste aus: [TextToExtract]

In diesem Fall muss der Benutzer nur den Text in [TextToExtract] angeben, aus dem er Aktionspunkte extrahieren möchte. Den Rest erledigt die vorgefertigte Eingabeaufforderung.