Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Wichtig
Dieses Feature ist zurzeit als öffentliche Preview verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und ist nicht für Produktionsworkloads vorgesehen. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar.
Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.
Retrieval Augmented Generation (RAG) ist ein Muster, das mit vortrainierten großen Sprachmodellen (Large Language Models, LLM) und Ihren eigenen Daten arbeitet, um Antworten zu generieren. In Azure Machine Learning können Sie jetzt RAG in einem Prompt-Flow implementieren. Die Unterstützung für RAG ist derzeit in der Public Preview.
In diesem Artikel sind einige der Vorteile von RAG aufgelistet. Zudem bietet er eine technische Übersicht und beschreibt die RAG-Unterstützung in Azure Machine Learning.
Hinweis
Neu bei LLM und RAG-Konzepten? Dieser Videoclip aus einer Microsoft-Präsentation bietet eine einfache Erklärung.
Gründe für die Verwendung von RAG
Traditionell trainieren Sie ein Basismodell mit Punkt-in-Time-Daten, um die Effektivität bei der Durchführung bestimmter Aufgaben und der Anpassung an die gewünschte Domäne sicherzustellen. Manchmal müssen Sie jedoch mit neueren oder aktuelleren Daten arbeiten. Zwei Ansätze können das Basismodell ergänzen: Die Optimierung oder das weitere Training des Basismodells mit neuen Daten oder RAG, das Prompt Engineering verwendet, um das Modell in Echtzeit zu ergänzen oder zu steuern.
Die Feinabstimmung eignet sich für die kontinuierliche Domänenanpassung, wodurch die Modellqualität erheblich verbessert werden kann, aber häufig höhere Kosten anfallen. Im Gegensatz dazu bietet RAG einen alternativen Ansatz, der es ermöglicht, dasselbe Modell als Schlussfolgerungs-Engine für neue Daten zu verwenden, die in einer Eingabeaufforderung bereitgestellt werden. Dieses Verfahren ermöglicht kontextbezogenes Lernen, ohne dass eine teure Feinabstimmung erforderlich ist, und ermöglicht Unternehmen die effizientere Nutzung von LLMs.
Mit RAG können Unternehmen maßgeschneiderte Lösungen erreichen, wobei die Relevanz der Daten erhalten bleibt und die Kosten optimiert werden. Durch die Einführung von RAG können Unternehmen die Schlussfolgerungsfunktionen von LLMs nutzen, wobei sie die vorhandenen Modelle zur Verarbeitung und Generierung von Antworten basierend auf neuen Daten einsetzen. RAG ermöglicht regelmäßige Datenaktualisierungen, ohne dass eine Feinabstimmung erforderlich ist, und optimiert die Integration von LLMs in Unternehmen.
- Bereitstellen zusätzlicher Daten als Anweisung oder Eingabeaufforderung für das LLM
- Hinzufügen einer Faktenüberprüfungskomponente zu ihren vorhandenen Modellen
- Trainieren Sie Ihr Modell anhand aktueller Daten, ohne den zusätzlichen Zeit- und Kostenaufwand, der mit der Optimierung verbunden ist.
- Trainieren Ihrer geschäftsspezifischen Daten
Technische Übersicht über die Verwendung von RAG auf großsprachige Modelle (LLMs)
Beim Informationsabruf ist RAG ein Ansatz, der es Ihnen ermöglicht, die Leistungsfähigkeit von LLMs mit Ihren eigenen Daten nutzbar zu machen. Damit eine LLM auf benutzerdefinierte Daten zugreifen kann, sind die folgenden Schritte erforderlich. Gliedern Sie zunächst die großen Daten in verwaltbare Teile. Konvertieren Sie die Blöcke zweitens in ein durchsuchbares Format. Speichern Sie die konvertierten Daten drittens an einem Speicherort, der einen effizienten Zugriff ermöglicht. Speichern Sie darüber hinaus relevante Metadaten für Zitate oder Verweise, wenn die LLM Antworten bereitstellt.
Sehen wir uns das Diagramm genauer an.
Quelldaten: Diese Daten sind in einer Datei oder einem Ordner auf Ihrem Computer, einer Datei im Cloudspeicher, einer Azure Machine Learning-Datenressource, einem Git-Repository oder einer SQL-Datenbank vorhanden.
Datenaufteilung: Konvertieren Sie die Daten in Ihrer Quelle in Klartext. Beispielsweise müssen Word-Dokumente oder PDF-Dateien geöffnet und in Text konvertiert werden. Teilen Sie dann den Text in kleinere Teile.
Das Konvertieren von Text in Vektoren wird als Einbettung bezeichnet. Vektoren sind numerische Darstellungen von Konzepten, die in Zahlensequenzen konvertiert werden, wodurch Computer die Beziehungen zwischen diesen Konzepten leichter verstehen können.
Verknüpfungen zwischen Quelldaten und Einbettungen: Speichern Sie diese Informationen als Metadaten in den von Ihnen erstellten Blöcken. Verwenden Sie es, um die LLMs dabei zu unterstützen, während der Erstellung von Antworten Zitate zu erzeugen.
RAG mit Azure Machine Learning (Vorschau)
Azure Machine Learning ermöglicht RAG durch Integration mit Azure OpenAI in Microsoft Foundry Models für großangelegte Sprachmodelle und Vektorisierung. Es unterstützt Faiss und Azure AI Search (ehemals Cognitive Search) als Vektorspeicher. Es unterstützt auch Open Source-Angebote, Tools und Frameworks wie LangChain für datenblöcke.
Um RAG zu implementieren, müssen Sie einige wichtige Anforderungen erfüllen. Formatieren Sie zunächst Daten auf eine Weise, die eine effiziente Durchsuchbarkeit ermöglicht, bevor Sie sie an die LLM senden, was letztendlich die Tokennutzung reduziert. Um die Effektivität der RAG zu gewährleisten, aktualisieren Sie Ihre Daten regelmäßig regelmäßig. Darüber hinaus können Sie die Ausgabe des LLM mithilfe Ihrer Daten auswerten und so die Wirksamkeit Ihrer Verfahren messen. Azure Machine Learning ermöglicht Ihnen nicht nur einen einfachen Einstieg in diese Aspekte, sondern auch die Verbesserung und Produktion von RAG. Azure Machine Learning bietet Folgendes:
- Beispiele zum Einstieg in RAG-basierte Q&A-Szenarios
- Assistentenbasierte Benutzeroberfläche zum Erstellen und Verwalten von Daten und deren Integration in Prompt-Flows.
- Möglichkeit zum Messen und Verbessern von RAG-Workflows, einschließlich der Generierung von Testdaten, der automatischen Erstellung von Prompts und visualisierter Prompt-Auswertungsmetriken.
- Erweiterte Szenarien mit mehr Kontrolle durch die neuen integrierten RAG-Komponenten zum Erstellen benutzerdefinierter Pipelines in Notebooks.
- Benutzeroberfläche für Code, die die Nutzung von Daten ermöglicht, die mit Open Source-Angeboten wie LangChain erstellt wurden.
- Nahtlose Integration von RAG-Workflows in MLOps-Workflows mithilfe von Pipelines und Aufträgen.
Zusammenfassung
Azure Machine Learning ermöglicht Ihnen die Integration von RAG in Ihre KI-Lösung mithilfe des Azure Machine Learning-Studios oder durch Schreiben von Code mit Azure Machine Learning-Pipelines. Es bietet mehrere Mehrwerte wie die Möglichkeit, RAG-Workflows zu messen und zu verbessern, die Generierung von Testdaten, die automatische Erstellung von Eingabeaufforderungen und die Visualisierung der Metriken zur Eingabeaufforderungsauswertung. Sie ermöglicht die Integration von RAG-Workflows in MLOps-Workflows mithilfe von Pipelines. Sie können Ihre Daten auch mit Open Source-Angeboten wie LangChain verwenden.
Nächste Schritte
Verwenden von Vektorspeichern mit Azure Machine Learning (Vorschau)
Erstellen eines Vektorindexes in Azure Machine Learning-Prompt-Flow (Vorschau)