Freigeben über


Erste Schritte beim Anpassen eines großen Sprachmodells (LLM)

Hinweis

Dieses Dokument bezieht sich auf das Microsoft Foundry(klassische) Portal.

🔍 Zeigen Sie die Microsoft Foundry-Dokumentation (neu) an, um mehr über das neue Portal zu erfahren.

Es gibt mehrere Techniken zum Anpassen eines vortrainierten Sprachmodells an eine bestimmte Aufgabe oder Domäne. Dazu gehören prompt Engineering, RAG (Retrieval Augmented Generation) und Feinabstimmung. Diese drei Techniken schließen sich nicht gegenseitig aus, sondern ergänzen Methoden, die in Kombination auf einen bestimmten Anwendungsfall anwendbar sein können. In diesem Artikel befassen wir uns mit diesen Techniken, veranschaulichen Anwendungsfällen, zu berücksichtigenden Elementen und stellen Links zu Ressourcen bereit, um mehr zu erfahren und mit den einzelnen Schritten zu beginnen.

Prompt Engineering

Definition

Prompt Engineering ist eine Technik, die sowohl Kunst als auch Wissenschaft ist, die das Entwerfen von Aufforderungen für generative KI-Modelle umfasst. Dieser Prozess nutzt kontextbezogenes Lernen (zero shot und few shot) und verbessert mit Iteration die Genauigkeit und Relevanz bei Antworten, um die Leistung des Modells zu optimieren.

Illustrative Anwendungsfälle

Ein Marketing-Manager bei einem umweltbewussten Unternehmen kann Prompt Engineering verwenden, um das Modell zu leiten, um Beschreibungen zu generieren, die stärker auf den Ton und Stil ihrer Marke ausgerichtet sind. So können Sie beispielsweise eine Eingabeaufforderung wie "Schreiben einer Produktbeschreibung für eine neue Reihe umweltfreundlicher Reinigungsprodukte, die Qualität, Effektivität unterstrichen mit der Hervorhebung der Verwendung umweltfreundlicher Inhaltsstoffe" für die Eingabe hinzufügen. Dies hilft dem Modell, Beschreibungen zu generieren, die den Werten und Nachrichten ihrer Marke entsprechen.

Zu berücksichtigende Dinge

  • Prompt Engineering ist der Ausgangspunkt für die Generierung der gewünschten Ausgabe aus generativen KI-Modellen.

  • Klare Anleitungen erstellen: Anweisungen werden häufig in Eingabeaufforderungen verwendet und leiten das Verhalten des Modells. Seien Sie spezifisch und lassen Sie möglichst wenig Raum für Interpretation. Verwenden Sie Analogien und beschreibende Sprache, um dem Modell zu helfen, Das gewünschte Ergebnis zu verstehen.

  • Versuchen und Durchlaufen: Prompt Engineering ist eine Kunst, die Versuche und Iteration erfordert. Üben und Sammeln Sie Erfahrungen beim Erstellen von Aufforderungen für verschiedene Aufgaben. Jedes Modell verhält sich möglicherweise anders, daher ist es wichtig, Prompt Engineering-Techniken entsprechend anzupassen.

Erste Schritte

RAG (Retrieval Augmented Generation)

Definition

RAG (Retrieval Augmented Generation) ist eine Methode, die externe Daten in eine Aufforderung zum großen Sprachmodell integriert, um relevante Antworten zu generieren. Dieser Ansatz ist besonders vorteilhaft, wenn ein großer Korpus unstrukturierter Texte zu unterschiedlichen Themen verwendet wird. Es ermöglicht Antworten, die in der Knowledge Base (KB) der Organisation geerdet werden, und bietet eine maßgeschneidertere und genauere Antwort.

RAG ist auch dann von Vorteil, wenn Fragen auf der Grundlage privater Daten einer Organisation beantwortet werden oder wenn die öffentlichen Daten, auf denen das Modell trainiert wurde, möglicherweise veraltet sind. Dadurch wird sichergestellt, dass die Antworten unabhängig von den Änderungen im Datenformat immer aktuell und relevant sind.

Illustrativer Anwendungsfall

Eine Personalabteilung des Unternehmens sucht nach einem intelligenten Assistenten, der bestimmte Fragen im Zusammenhang mit der Krankenversicherung beantwortet, z. B. "werden Brillen abgedeckt?" RAG wird verwendet, um die umfangreichen und zahlreichen Dokumente im Zusammenhang mit Versicherungsplanrichtlinien aufzunehmen, um die Beantwortung dieser spezifischen Fragen zu ermöglichen.

Zu berücksichtigende Dinge

  • RAG hilft mit der Übereinstimmung der KI-Ausgabe mit realen Daten und reduziert die Wahrscheinlichkeit der Erfindung von Unwahrheiten.

  • RAG ist hilfreich, wenn auf privaten proprietären Daten basierende Fragen beantwortet werden müssen.

  • RAG ist hilfreich, wenn Sie aktuelle Fragen beantworten möchten (z. B. vor dem Stichtag, an dem die Modellversion zuletzt trainiert wurde).

Erste Schritte

Optimierung

Definition

Feinabstimmung, insbesondere überwachte Feinabstimmung in diesem Kontext, ist ein iterativer Prozess, der ein vorhandenes großes Sprachmodell an einen bereitgestellten Schulungssatz anpasst, um die Leistung zu verbessern, das Modell neue Fähigkeiten zu vermitteln oder die Latenz zu verringern. Dieser Ansatz wird verwendet, wenn das Modell über bestimmte Themen lernen und generalisieren muss, insbesondere, wenn diese Themen im Allgemeinen klein sind.

Feinabstimmung erfordert die Verwendung qualitativ hochwertiger Schulungsdaten in einem speziellen Beispielbasierten Format, um das neue fein abgestimmte Große Sprachmodell zu erstellen. Durch den Fokus auf bestimmte Themen ermöglicht die Feinabstimmung das Modell, genauere und relevantere Antworten innerhalb dieser Fokusbereiche bereitzustellen.

Illustrativer Anwendungsfall

Eine IT-Abteilung hat GPT-4o verwendet, um Abfragen in natürlicher Sprachen in SQL zu konvertieren, aber sie hat festgestellt, dass die Antworten nicht immer zuverlässig auf ihrem Schema basieren und dass die Kosten unerschwinglich hoch sind.

Sie optimiert GPT-4o mit Hunderten von Anforderungen und korrekten Antworten und erzeugt ein Modell, das besser als das Basismodell bei geringeren Kosten und niedrigeren Latenzen funktioniert.

Zu berücksichtigende Dinge

  • Feinabstimmung ist eine erweiterte Funktion; sie verbessert LLM mit Kenntnissen und/oder domänenspezifischen Kenntnissen nach dem Cutoff-Datum. Beginnen Sie, indem Sie die grundlegende Leistung eines Standardmodells anhand ihrer Anforderungen bewerten, bevor Sie diese Option in Betracht ziehen.

  • Eine Leistungsbaseline ohne Optimierung ist unerlässlich, um beurteilen zu können, ob sich die Leistung des Modells verbessert hat. Eine Optimierung mit schlechten Daten macht das Basismodell schlechter, aber ohne Baseline sind Regressionen nur schwer zu erkennen.

  • Gute Fälle für die Feinabstimmung sind Szenarien, in denen das Modell Inhalte in einem spezifischen und angepassten Stil, Ton oder Format ausgeben muss, sowie Aufgaben, in denen die zum Steuern des Modells benötigten Informationen aufgrund ihrer Länge oder Komplexität nicht in das Eingabeaufforderungsfenster passen.

  • Feinabstimmungskosten:

    • Optimierungen können Kosten in zwei Richtungen reduzieren: (1) indem je nach Vorgang weniger Token verwendet werden (2) mithilfe eines kleineren Modells (z. B. GPT-4o kann möglicherweise so optimiert werden, dass die gleiche Qualität von GPT-4o für einen bestimmten Vorgang erzielt wird).

    • Feinabstimmung hat Vorabkosten für die Schulung des Modells. Und zusätzliche stündliche Kosten für das Hosten des benutzerdefinierten Modells, nachdem es bereitgestellt wurde.

Erste Schritte