Introdução
O verdadeiro poder dos LLMs (Modelos de Linguagem Grande) está em seu aplicativo. Se você deseja usar LLMs para classificar páginas da Web em categorias ou criar um chatbot em seus dados. Para aproveitar o poder das LLMs disponíveis, você precisa criar um aplicativo que combine suas fontes de dados com LLMs e gere a saída desejada.
Para desenvolver, testar, ajustar e implantar aplicativos LLM, você pode usar o fluxo de prompt, acessível no estúdio do Azure Machine Learning e no portal do Microsoft Foundry.
Observação
O foco deste módulo é entender e explorar o fluxo de prompts por meio do Microsoft Foundry. No entanto, observe que o conteúdo se aplica à experiência de fluxo de prompts tanto no Azure Machine Learning quanto no Microsoft Foundry.
O prompt flow usa um prompt como entrada, que no contexto de LLMs, refere-se à consulta fornecida ao aplicativo LLM para gerar uma resposta. É o texto ou o conjunto de instruções fornecidas ao aplicativo LLM, solicitando que ele gere a saída ou execute uma tarefa específica.
Por exemplo, quando você deseja usar um modelo de geração de texto, o prompt pode ser uma frase ou um parágrafo que inicia o processo de geração. No contexto de um modelo de resposta a perguntas, o prompt pode ser uma consulta solicitando informações sobre um tópico específico. A eficácia do prompt geralmente depende de quão bem ele transmite a intenção do usuário e o resultado desejado.
O fluxo de prompt permite que você crie fluxos, que se referem à sequência de ações ou etapas executadas para alcançar uma tarefa ou funcionalidade específica. Um fluxo representa o processo geral ou o pipeline que incorpora a interação com o LLM para resolver um caso de uso específico. O fluxo encapsula todo o percurso desde o recebimento de entrada até a geração de saída ou a execução de uma ação desejada.