Partager via


Prise en main : Interroger des LLMs et créer des agents IA prototypes sans code

Ce didacticiel sans code de 5 minutes présente l’IA générative sur Azure Databricks. Vous allez utiliser le AI Playground pour faire ce qui suit :

  • Interroger des modèles de langage volumineux (LLMs) et comparer les résultats côte à côte
  • Prototyper un agent IA appelant un outil
  • Exporter votre agent en code
  • Facultatif : Prototyper un chatbot question-réponse à l’aide d’une génération d’extraction augmentée (RAG)

Avant de commencer

Vérifiez que votre espace de travail peut accéder aux éléments suivants :

Étape 1 : Interroger des grands modèles de langage à l’aide d’AI Playground

Utilisez AI Playground pour interroger des machines virtuelles LLM dans une interface de conversation.

  1. Dans votre espace de travail, sélectionnez Playground.
  2. Tapez une question telle que « Qu’est-ce que RAG ? ».

Ajoutez un nouveau LLM pour comparer les réponses côte à côte :

  1. En haut à droite, sélectionnez + pour ajouter un modèle à des fins de comparaison.
  2. Dans le nouveau volet, sélectionnez un autre modèle à l’aide du sélecteur de liste déroulante.
  3. Cochez les cases Synchroniser pour synchroniser les requêtes.
  4. Essayez une nouvelle invite, par exemple « Qu’est-ce qu’un système d'IA complexe ? » pour afficher les deux réponses côte à côte.

Terrain de jeu d’INTELLIGENCE artificielle Continuez à tester et comparer différentes llMs pour vous aider à choisir le meilleur à utiliser pour créer un agent IA.

Étape 2 : Prototyper un agent IA appelant un outil

Les outils permettent aux machines virtuelles d’effectuer plus que de générer le langage. Les outils peuvent interroger des données externes, exécuter du code et effectuer d’autres actions. AI Playground vous offre une option sans code pour prototyper des agents appelant des outils :

  1. Dans Playground, choisissez un modèle étiqueté Outils activé.

    Sélectionner un LLM qui appelle les outils

  2. Sélectionnez Outils>+ Ajouter un outil et sélectionnez la fonction catalogue Unity intégrée. system.ai.python_exec

    Cette fonction permet à votre agent d’exécuter du code Python arbitraire.

    Sélectionner un outil de fonction hébergé

  3. Posez une question qui implique la génération ou l’exécution de code Python. Vous pouvez essayer différentes variantes de la formulation de votre proposition. Si vous ajoutez plusieurs outils, le LLM sélectionne l’outil approprié pour générer une réponse.

    Prototyper le LLM avec l’outil de fonction hébergé

Étape 3 : Exporter votre agent en code

Après avoir testé votre agent dans AI Playground, cliquez sur Obtenir le code>Créer un bloc-notes pour l'agent pour exporter votre agent vers un notebook Python.

Le notebook Python contient du code qui définit l’agent et le déploie sur un point de terminaison de service de modèle.

Facultatif : Prototype d’un bot de réponse aux questions RAG

Si vous avez configuré un index de recherche vectorielle dans votre espace de travail, vous pouvez prototyper un bot question-réponse. Ce type d’agent utilise des documents dans un index de recherche vectorielle pour répondre aux questions basées sur ces documents.

  1. Cliquez sur Outils>+ Ajouter un outil. Sélectionnez ensuite votre index Recherche vectorielle.

    Sélectionner un outil de recherche vectorielle

  2. Posez une question relative à vos documents. L’agent peut utiliser l’index vectoriel pour rechercher des informations pertinentes et citer tous les documents utilisés dans sa réponse.

    Prototyper le LLM avec l’outil de recherche vectorielle

Pour configurer un index de recherche vectorielle, consultez Créer un index de recherche vectorielle

Étapes suivantes