Freigeben über


Erste Schritte: Abfragen von LLMs und Prototyp-KI-Agents ohne Code

In diesem 5-minütigen No-Code-Lernprogramm werden generative KI in Azure Databricks eingeführt. Sie verwenden den KI-Playground, um Folgendes zu tun:

  • Große Sprachmodelle (LLMs) abfragen und Ergebnisse im direkten Vergleich betrachten
  • Prototyp eines KI-Agenten, der Werkzeuge aufruft
  • Exportieren des Agenten in Code
  • Optional: Prototyp eines Fragebeantwortungs-Chatbots unter Verwendung von "Retrieval-Augmented Generation" (RAG)

Bevor Sie anfangen

Stellen Sie sicher, dass Ihr Arbeitsbereich auf Folgendes zugreifen kann:

Schritt 1: Abfragen von LLMs mit AI Playground

Verwenden Sie den KI-Playground, um LLMs in einer Chatschnittstelle abzufragen.

  1. Wählen Sie in Ihrem Arbeitsbereich " Playground" aus.
  2. Geben Sie eine Frage wie "Was ist RAG?" ein.

Fügen Sie eine neue LLM hinzu, um Antworten nebeneinander zu vergleichen:

  1. Wählen Sie + oben rechts aus, um ein Modell zum Vergleich hinzuzufügen.
  2. Wählen Sie im neuen Bereich ein anderes Modell über das Dropdown-Menü aus.
  3. Aktivieren Sie die Kontrollkästchen " Synchronisieren ", um die Abfragen zu synchronisieren.
  4. Probieren Sie eine neue Eingabeaufforderung aus, z. B. "Was ist ein zusammengesetztes KI-System?", um die beiden Antworten nebeneinander anzuzeigen.

KI-Spielplatz Testen und vergleichen Sie unterschiedliche LLMs, damit Sie entscheiden können, welches am besten zur Erstellung eines KI-Agenten verwendet werden kann.

Schritt 2: Prototyp eines Tools, der KI-Agent aufruft

Mit Tools können LLMs mehr tun als Sprache generieren. Tools können externe Daten abfragen, Code ausführen und andere Aktionen ausführen. AI Playground bietet die Möglichkeit, ohne Code Agenten zu prototypisieren, die Werkzeuge aufrufen.

  1. Wählen Sie im Playground ein Modell mit der Bezeichnung Tools aktiviert aus.

    Auswählen eines Large Language Model (LLM) für den Toolaufruf

  2. Wählen Sie Tools>+ Tool hinzufügen aus, und wählen Sie die integrierte Unity Catalog-Funktion aus. system.ai.python_exec

    Mit dieser Funktion kann Ihr Agent beliebigen Python-Code ausführen.

    Auswählen eines Tools für gehostete Funktionen

  3. Stellen Sie eine Frage, die das Generieren oder Ausführen von Python-Code umfasst. Sie können verschiedene Variationen Ihrer Eingabeformulierung ausprobieren. Wenn Sie mehrere Tools hinzufügen, wählt das LLM das entsprechende Tool aus, um eine Antwort zu generieren.

    Prototypisieren Sie das LLM mit dem gehosteten Funktionstool

Schritt 3: Exportieren Ihres Agents in Code

Klicken Sie nach dem Testen Ihres Agents im KI-Playground auf "Code>erstellen", um Ihren Agent in ein Python-Notizbuch zu exportieren.

Das Python-Notizbuch enthält Code, der den Agenten definiert und ihn zu einem Bereitstellungsendpunkt für Modelle bereitstellt.

Optional: Prototyp eines RAG-Fragebeantwortungs-Bots

Wenn Sie einen Vektorsuchindex in Ihrem Arbeitsbereich eingerichtet haben, können Sie einen Prototyp für einen Fragebeantwortungs-Bot erstellen. Dieser Agenttyp verwendet Dokumente in einem Vektorsuchindex, um Fragen basierend auf diesen Dokumenten zu beantworten.

  1. Klicken Sie auf Extras>+ Tool hinzufügen. Wählen Sie dann Ihren Vektorsuchindex aus.

    Auswählen eines Vektorsuchtools

  2. Stellen Sie eine Frage im Zusammenhang mit Ihren Dokumenten. Der Agent kann den Vektorindex verwenden, um relevante Informationen nachzuschlagen und alle dokumente zu zitieren, die in seiner Antwort verwendet werden.

    Prototyp des LLM mit Vektorsuchtool

Informationen zum Einrichten eines Vektorsuchindex finden Sie unter Erstellen eines Vektorsuchindex

Nächste Schritte