Partilhar via


Primeiros passos: consulte LLMs e protótipos de agentes de IA sem código

Este tutorial sem código de 5 minutos apresenta a IA generativa no Azure Databricks. Você usará o AI Playground para fazer o seguinte:

  • Consulte modelos de linguagem grandes (LLMs) e compare os resultados lado a lado
  • Crie um protótipo de um agente de IA para chamar ferramentas
  • Exporte o seu agente para código
  • Opcional: Crie protótipos de um chatbot de perguntas e respostas usando a geração aumentada de recuperação (RAG)

Antes de começar

Certifique-se de que seu espaço de trabalho possa acessar o seguinte:

Etapa 1: Consultar LLMs usando o AI Playground

Use o AI Playground para consultar LLMs numa interface de bate-papo.

  1. No espaço de trabalho, selecione Playground.
  2. Digite uma pergunta como "O que é RAG?".

Adicione um novo LLM para comparar as respostas lado a lado:

  1. No canto superior direito, selecione + para adicionar um modelo para comparação.
  2. No novo painel, selecione um modelo diferente usando o menu drop-down.
  3. Marque as caixas de seleção Sincronizar para sincronizar as consultas.
  4. Tente um novo prompt, como "O que é um sistema de IA composto?" para ver as duas respostas lado a lado.

Ambiente de testes AI Continue a testar e comparar diferentes LLMs para o ajudar a decidir qual é o melhor a utilizar para construir um agente de IA.

Etapa 2: Prototipar um agente de IA que chama ferramentas

As ferramentas permitem que os LLMs façam mais do que gerar linguagem. As ferramentas podem consultar dados externos, executar código e executar outras ações. O AI Playground oferece uma opção sem código para prototipar agentes de chamada de ferramentas:

  1. No Playground, escolha um modelo rotulado como Ferramentas habilitadas.

    Selecione um LLM para invocar ferramentas

  2. Selecione Ferramentas>+ Adicionar ferramenta e selecione a função integrada Unity Catalog, system.ai.python_exec.

    Esta função permite que o agente execute código Python arbitrário.

    Selecione uma ferramenta de função hospedada

  3. Faça uma pergunta que envolva a geração ou execução de código Python. Você pode tentar diferentes variações na formulação do seu prompt. Se você adicionar várias ferramentas, o LLM selecionará a ferramenta apropriada para gerar uma resposta.

    Protótipo do LLM com a ferramenta de função hospedada

Etapa 3: Exportar o seu agente para código

Depois de testar o seu agente no AI Playground, clique em Obter código>Criar caderno de agente para exportar o seu agente para um caderno Python.

O bloco de anotações Python contém código que define o agente e o implanta em um modelo que serve o ponto de extremidade.

Opcional: Crie protótipos de um bot de resposta a perguntas RAG

Se você tiver um índice de pesquisa vetorial configurado em seu espaço de trabalho, poderá criar um protótipo de bot de pergunta-resposta. Esse tipo de agente usa documentos em um índice de pesquisa vetorial para responder a perguntas com base nesses documentos.

  1. Clique em Ferramentas>+ Adicionar ferramenta. Em seguida, selecione o índice da Pesquisa Vetorial.

    Selecione uma ferramenta de pesquisa vetorial

  2. Faça uma pergunta relacionada com os seus documentos. O agente pode usar o índice vetorial para procurar informações relevantes e citará quaisquer documentos usados em sua resposta.

    Prototipar o LLM com ferramenta de busca vetorial

Para configurar um índice de pesquisa vetorial, consulte Criar um índice de pesquisa vetorial

Próximos passos