Compartilhar via


Comece: Fazer consultas a LLMs e prototipar agentes de IA sem código

Este tutorial sem código de 5 minutos apresenta a IA generativa no Azure Databricks. Você usará o Playground de IA para fazer o seguinte:

  • Consultar LLMs (modelos de linguagem grandes) e comparar lado a lado os resultados
  • Protótipo de um agente de IA que aciona ferramentas
  • Exportar seu agente para código
  • Opcional: protótipo de um chatbot de resposta a perguntas usando RAG (geração aumentada de recuperação)

Antes de começar

Certifique-se de que seu espaço de trabalho pode acessar o seguinte:

Etapa 1: Consultar LLMs usando o AI Playground

Use o Playground de IA para consultar LLMs em uma interface de chat.

  1. Em seu workspace, selecione Playground.
  2. Digite uma pergunta como "O que é RAG?".

Adicione uma nova LLM para comparar as respostas lado a lado:

  1. No canto superior direito, selecione + para adicionar um modelo para comparação.
  2. No novo painel, selecione um modelo diferente usando o seletor suspenso.
  3. Selecione as caixas de seleção Sincronizar para sincronizar as consultas.
  4. Experimente um novo prompt, como "O que é um sistema de IA composto?" para ver as duas respostas lado a lado.

Playground de IA Continue testando e comparando diferentes LLMs para ajudar a decidir qual é o melhor para criar um agente de IA.

Etapa 2: Prototipar um agente de IA para acionamento de ferramentas

As ferramentas permitem que as LLMs façam mais do que gerar idioma. As ferramentas podem consultar dados externos, executar código e executar outras ações. O AI Playground oferece uma opção sem código para prototipar agentes que acionam ferramentas.

  1. No Playground, escolha um modelo rotulado ferramentas habilitadas.

    Selecione um LLM para chamada de ferramenta

  2. Selecione Ferramentas>+ Adicionar ferramenta e selecione a função interna do Catálogo do Unity. system.ai.python_exec

    Essa função permite que seu agente execute código Python arbitrário.

    Selecionar uma ferramenta de função hospedada

  3. Faça uma pergunta que envolva a geração ou a execução do código Python. Você pode tentar diferentes variações na formulação do prompt. Se você adicionar várias ferramentas, o LLM selecionará a ferramenta apropriada para gerar uma resposta.

    Prototipe o LLM com a ferramenta de funções hospedadas

Etapa 3: Exportar seu agente para o código

Depois de testar seu agente no AI Playground, clique em Obter código>Criar bloco de anotações do agente para exportar seu agente para um notebook Python.

O notebook Python contém código que define o agente e o implanta em um endpoint de serviço do modelo.

Opcional: protótipo de um bot de resposta a perguntas do RAG

Se você tiver um índice de pesquisa de vetor configurado em seu workspace, poderá criar um protótipo de um bot de resposta a perguntas. Esse tipo de agente usa documentos em um índice de pesquisa de vetor para responder perguntas com base nesses documentos.

  1. Clique em Ferramentas>+ Adicionar ferramenta. Em seguida, selecione o índice de Pesquisa de Vetor.

    Selecionar uma ferramenta de pesquisa de vetor

  2. Faça uma pergunta relacionada aos seus documentos. O agente pode usar o índice de vetor para pesquisar informações relevantes e citará todos os documentos usados em sua resposta.

    Criar um protótipo do LLM com a ferramenta de busca em vetores

Para configurar um índice de pesquisa de vetor, consulte Criar um índice de pesquisa de vetor

Próximas etapas