Introdução

Concluído

O verdadeiro poder dos Large Language Models (LLMs) reside na sua aplicação. Se você deseja usar LLMs para classificar páginas da Web em categorias ou para criar um chatbot em seus dados. Para aproveitar o poder dos LLMs disponíveis, você precisa criar um aplicativo que combine suas fontes de dados com LLMs e gere a saída desejada.

Para desenvolver, testar, ajustar e implementar aplicações LLM, pode usar o fluxo de prompts, acessível no estúdio Azure Machine Learning e no portal Microsoft Foundry.

Observação

O foco deste módulo é compreender e explorar o fluxo de prompts através do Microsoft Foundry. No entanto, note que o conteúdo aplica-se à experiência de fluxo de prompts tanto no Azure Machine Learning como no Microsoft Foundry.

O fluxo de comandos utiliza um prompt como entrada, que, no contexto de LLMs, refere-se à consulta que é fornecida à aplicação de LLM para gerar uma resposta. É o texto ou conjunto de instruções dadas ao aplicativo LLM, solicitando que ele gere saída ou execute uma tarefa específica.

Por exemplo, quando você deseja usar um modelo de geração de texto, o prompt pode ser uma frase ou um parágrafo que inicia o processo de geração. No contexto de um modelo de resposta a perguntas, o prompt pode ser uma consulta solicitando informações sobre um tópico específico. A eficácia do prompt muitas vezes depende de quão bem ele transmite a intenção do usuário e o resultado desejado.

O fluxo de prompt permite criar fluxos, que se referem à sequência de ações ou etapas que são tomadas para alcançar uma tarefa ou funcionalidade específica. Um fluxo representa o processo ou pipeline geral que incorpora a interação com o LLM para abordar um caso de uso específico. O fluxo encapsula toda a jornada, desde o recebimento de entrada até a geração de saída ou a execução de uma ação desejada.