Compartir a través de


Comenzar: Consulta LLMs y prototipa agentes de inteligencia artificial sin código

Este tutorial sin código de 5 minutos presenta inteligencia artificial generativa en Azure Databricks. Usarás AI Playground para hacer lo siguiente:

  • Consultar modelos de lenguaje grande (LLM) y comparar los resultados en paralelo
  • Prototipo de un agente de IA que ejecuta herramientas
  • Exporta tu agente al código
  • Opcional: Prototipo de un bot de chat de pregunta-respuesta mediante la generación aumentada de recuperación (RAG)

Antes de empezar

Asegúrese de que el área de trabajo puede acceder a lo siguiente:

Paso 1: Consulta de LLM mediante AI Playground

Usa el AI Playground para consultar los modelos de lenguaje de gran tamaño en una interfaz de chat.

  1. En el área de trabajo, seleccione Parque infantil.
  2. Escriba una pregunta como "¿Qué es RAG?".

Agregue un nuevo LLM para comparar las respuestas en paralelo:

  1. En la esquina superior derecha, seleccione + para agregar un modelo para la comparación.
  2. En el nuevo panel, seleccione otro modelo con el selector desplegable.
  3. Active las casillas Sincronizar para sincronizar las consultas.
  4. Pruebe un mensaje nuevo, como "¿Qué es un sistema de inteligencia artificial compuesto?" para ver las dos respuestas en paralelo.

Campo de pruebas de IA Continúe probando y comparando diferentes modelos de lenguaje para ayudarle a decidir cuál es el mejor para crear un agente de IA.

Paso 2: Crear un prototipo de un agente de IA para llamar herramientas

Las herramientas permiten que las LLM realicen más que generar lenguaje. Las herramientas pueden consultar datos externos, ejecutar código y realizar otras acciones. AI Playground te ofrece una opción sin código para prototipar agentes para invocar herramientas.

  1. En Área de juegos, elija un modelo con la etiqueta Herramientas habilitadas.

    Seleccionar una LLM que permita invocar herramientas

  2. Seleccione Herramientas>+ Agregar herramienta y seleccione la función integrada Catálogo de Unity, system.ai.python_exec.

    Esta función permite al agente ejecutar código arbitrario de Python.

    Selección de una herramienta de función hospedada

  3. Haga una pregunta que implique generar o ejecutar código de Python. Puede probar diferentes variaciones en la expresión del mensaje. Si agrega varias herramientas, LLM selecciona la herramienta adecuada para generar una respuesta.

    Hacer un prototipo del LLM con herramienta de función hospedada

Paso 3: Exporta tu agente al código

Después de probar el agente en AI Playground, haga clic en Get codeCreate agent notebook para exportar el agente a un cuaderno de Python.

El cuaderno de Python contiene código que define el agente y lo despliega en un endpoint de servicio del modelo.

Opcional: Prototipo de un bot de respuesta a preguntas RAG

Si tiene un índice de búsqueda vectorial configurado en el área de trabajo, puede crear prototipos de un bot de respuesta a preguntas. Este tipo de agente usa documentos en un índice de búsqueda vectorial para responder a preguntas basadas en esos documentos.

  1. Haga clic en Herramientas>+ Agregar herramienta. A continuación, seleccione el índice de búsqueda vectorial.

    Selección de una herramienta de búsqueda vectorial

  2. Haga una pregunta relacionada con sus documentos. El agente puede usar el índice vectorial para buscar información relevante y citará los documentos usados en su respuesta.

    Prototipo del LLM con la herramienta de búsqueda de vectores

Para configurar un índice de búsqueda vectorial, consulte Creación de un índice de búsqueda vectorial.

Pasos siguientes

  • Use Agent Framework para desarrollar agentes avanzados programáticamente. Consulte Creación de agentes de IA en el código.

  • Obtenga información sobre cómo compilar una aplicación RAG. Consulte la guía RAG.