Freigeben über


Übersicht über Eingabeaufforderungen

Dieser Artikel erklärt Prompts und Prompt Engineering als Schlüsselkonzepte, die Ihnen helfen, leistungsstarke generative KI-Fähigkeiten zu erstellen, die in Copilot Studio genutzt werden können.

Von Bedeutung

  • Prompts verwenden Modelle, die von Azure Foundry betrieben werden.
  • Für diese Funktion gelten möglicherweise Nutzungsbeschränkungen oder Kapazitätseinschränkungen.

Voraussetzungen

Was ist ein Prompt

Ein Prompt besteht hauptsächlich aus einer natürlichen Sprachanweisung, die einem generativen KI-Modell anweist, eine Aufgabe auszuführen. Das Modell folgt der Aufforderung, um die Struktur und den Inhalt des zu generierenden Textes zu bestimmen. Beim Prompt-Engineering handelt es sich um den Prozess des Erstellens und Verfeinerns der vom Modell verwendeten Eingabeaufforderung.

Eine Prompt-Builder-Erfahrung ermöglicht es Herstellern, wiederverwendbare Prompts zu erstellen, zu testen und zu speichern. In dieser Erfahrung können Sie auch Eingabevariablen und Wissensdaten verwenden, um während der Laufzeit dynamische Kontextdaten bereitzustellen. Du kannst diese Prompts mit anderen teilen und sie als Agenten, Workflows oder Apps nutzen.

Diese Eingabeaufforderungen können für viele Aufgaben oder Geschäftsszenarien eingesetzt werden, z. B. zum Zusammenfassen von Inhalten, zum Kategorisieren von Daten, zum Extrahieren von Entitäten, zum Übersetzen von Sprachen, zur Beurteilung der Stimmung oder zum Formulieren einer Antwort auf eine Beschwerde. Zum Beispiel könnten Sie eine Aufforderung erstellen, um Aktionspunkte aus Ihren Firmen-E-Mails auszuwählen und sie in einem Power Automate-Workflow zu verwenden, um eine Automatisierung der E-Mail-Verarbeitung zu erstellen.

Screenshot des Eingabeaufforderungseditors des Eingabeaufforderungsgenerators

In Copilot Studio können Prompts als Agentenwerkzeuge verwendet werden, um das Chat-Erlebnis zu verbessern oder fortschrittliche KI-Automatisierungen oder Workflow-Knoten zu ermöglichen, um KI-Aktionen in deterministische Automatisierungen zu integrieren.

Menschliche Aufsicht

Menschliche Aufsicht ist ein wichtiger Schritt bei der Arbeit mit Inhalten, die aus einem generativen KI-Modell generiert werden. Solche Modelle werden auf riesigen Datenmengen trainiert und können Fehler und Verzerrungen enthalten. Bevor Sie es online stellen, an einen Kunden senden oder zur Entscheidungsfindung im Unternehmen verwenden, sollte es von einem Menschen überprüft werden. Die menschliche Aufsicht hilft Ihnen, potenzielle Fehler und Verzerrungen zu erkennen. Es stellt auch sicher, dass der Inhalt für den beabsichtigten Anwendungsfall relevant ist und mit den Werten des Unternehmens ausgerichtet ist.

Menschliche Überprüfung kann auch helfen, eventuelle Probleme mit dem Modell selbst zu identifizieren. Wenn das Modell beispielsweise Inhalte generiert, die für den beabsichtigten Anwendungsfall nicht relevant sind, müssen Sie die Eingabeaufforderung möglicherweise anpassen.

Verantwortungsvolle KI

Wir möchten eine von Anfang an verantwortungsbewusste KI erschaffen. Unsere Arbeit orientiert sich an einer Reihe grundlegender Prinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz, Inklusivität, Transparenz und Rechenschaftspflicht. Wir setzen diese Grundsätze unternehmensweit in die Praxis um, um KI zu entwickeln und einzusetzen, die sich positiv auf die Gesellschaft auswirkt. Wir verfolgen einen umfassenden Ansatz und kombinieren innovative Forschung, herausragende Technik und verantwortungsvolle Governance. Neben der Spitzenforschung von OpenAI zur KI-Ausrichtung entwickeln wir einen Rahmen für den sicheren Einsatz unserer eigenen KI-Technologien, der helfen soll, in der Branche verantwortungsvollere Ergebnisse zu erreichen.

Erfahren Sie mehr über Transparenz in der Transparenznotiz für Azure OpenAI.