Einführung

Abgeschlossen

Generative KI-Anwendungen basieren auf Sprachmodellen. Der Entwicklungsprozess beginnt in der Regel mit einer Erkundung und einem Vergleich der verfügbaren Foundation-Modelle , um das Modell zu finden, das den speziellen Anforderungen Ihrer Anwendung am besten entspricht. Nachdem Sie ein geeignetes Modell ausgewählt haben, stellen Sie es auf einem Endpunkt bereit, auf dem es von einer Clientanwendung oder einem KI-Agent genutzt werden kann.

Foundation-Modelle, z. B. die GPT-Modellfamilie, sind moderne Sprachmodelle, die entwickelt wurden, um natürliche Sprache zu verstehen, zu generieren und mit ihnen zu interagieren. Einige gängige Anwendungsfälle für Modelle sind:

  • Umwandlung von Sprache zu Text (Spracherkennung) und Text zu Sprache (Sprachsynthese). Beispiel: Generieren von Untertiteln für Videos.
  • Maschinelle Übersetzung. Beispiel: Übersetzen von Text aus dem Englischen ins Japanische.
  • Textklassifizierung. Beispiel: Kennzeichnen einer E-Mail als „Spam“ oder „Kein Spam“.
  • Entitätsextraktion. Beispiel: Extrahieren von Stichwörtern oder Namen aus einem Dokument.
  • Textzusammenfassung. Beispiel: Generieren einer kurzen Zusammenfassung eines mehrseitigen Dokuments in einem Absatz.
  • Fragen und Antworten. Beispiel: Beantworten von Fragen wie „Wie heißt die Hauptstadt von Frankreich?“.
  • Reasoning. Lösen Sie beispielsweise ein mathematisches Problem.

In diesem Modul erkunden Sie Basismodelle, die zum Beantworten von Fragen verwendet werden. Die Basismodelle, die Sie hier kennen lernen, können für Chatanwendungen verwendet werden, in denen Sie ein Sprachmodell verwenden, um eine Antwort auf die Frage eines Benutzers zu generieren.

Hinweis

Der neueste Durchbruch bei generativen KI-Modellen ist der Entwicklung der Transformer-Architektur geschuldet. Eingeführt wurden Transformer im Dokument Attention is all you need (Aufmerksamkeit ist alles, was Sie brauchen) von Vaswani et al. von 2017. Die Transformer-Architektur sorgte für zwei Innovationen bei der Verarbeitung natürlicher Sprache, die zur Entstehung von Basismodellen geführt haben:

  • Anstatt Wörter sequenziell zu verarbeiten, verarbeiten Transformatoren jedes Wort unabhängig und parallel mithilfe von Aufmerksamkeit.
  • Neben der semantischen Ähnlichkeit zwischen Wörtern verwenden Transformatoren die Positionscodierung, um die Informationen zur Position eines Worts in einem Satz einzubeziehen.