Introducción
La verdadera eficacia de los modelos de lenguaje grande (LLM) se encuentra en su aplicación. Tanto si quieren usar LLMs para clasificar páginas web en categorías como para crear un bot de chat con sus datos. Para aprovechar el potencial de las MPL disponibles, debe crear una aplicación que combine sus fuentes de datos con MPL y genere la salida deseada.
Para desarrollar, probar, optimizar e implementar aplicaciones LLM, puede usar el flujo de mensajes, accesible en Azure Machine Learning Studio y en el portal de Microsoft Foundry.
Nota:
El enfoque de este módulo es comprender y explorar el flujo de mensajes a través de Microsoft Foundry. Pero ten en cuenta que el contenido se aplica a la experiencia de flujo de avisos tanto en Azure Machine Learning como en Microsoft Foundry.
El flujo de avisos toma una solicitud como entrada, que en el contexto de los LLM hace referencia a la consulta proporcionada a la aplicación LLM para generar una respuesta. Es el texto o conjunto de instrucciones que se proporcionan a la aplicación LLM, lo que le pide que genere la salida o realice una tarea específica.
Por ejemplo, cuando quiera utilizar un modelo de generación de textos, el indicador podría ser una oración o un párrafo que inicie el proceso de generación. En el contexto de un modelo de respuesta a preguntas, la solicitud podría ser una consulta que solicita información sobre un tema determinado. La eficacia de la solicitud a menudo depende de la forma en que transmite la intención del usuario y el resultado deseado.
El flujo de comandos permite crear flujos, lo que se refiere a la secuencia de acciones o pasos que se realizan para lograr una tarea o funcionalidad específica. Un flujo representa el proceso o canalización general que incorpora la interacción con el LLM para abordar un caso de uso determinado. El flujo encapsula todo el recorrido desde la recepción de la entrada hasta la generación de la salida o la realización de una acción deseada.