Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Importante
Esse recurso está atualmente em visualização pública. Essa versão prévia é fornecida sem um contrato de nível de serviço e não é recomendada para cargas de trabalho de produção. Alguns recursos podem não ter suporte ou podem ter restrição de recursos.
Para obter mais informações, consulte Termos de Uso Complementares de Versões Prévias do Microsoft Azure.
A Geração Aumentada de Recuperação (RAG) é um padrão que funciona com Modelos de Linguagem Grande (LLM) pré-treinados e seus próprios dados para gerar respostas. No Azure Machine Learning, agora você pode implementar o RAG em um fluxo de prompt. No momento, essa oferta está em visualização pública.
Este artigo lista alguns dos benefícios do RAG, fornece uma visão geral técnica e descreve o suporte do RAG no Azure Machine Learning.
Observação
Novos conceitos de LLM e RAG? Este vídeo de uma apresentação da Microsoft oferece uma explicação simples.
Por que usar o RAG?
Tradicionalmente, você treina um modelo base com dados pontuais para garantir sua eficácia na execução de tarefas específicas e na adaptação ao domínio desejado. Contudo, às vezes, você precisa trabalhar com dados novos ou mais recentes. Duas abordagens podem complementar o modelo base: ajuste fino ou treinamento adicional do modelo base com novos dados ou RAG que usam engenharia de prompt para complementar ou orientar o modelo em tempo real.
O ajuste fino é adequado para adaptação contínua de domínio, permitindo melhorias significativas na qualidade do modelo, mas geralmente incorrendo em custos mais altos. Por outro lado, o RAG oferece uma abordagem alternativa, permitindo o uso do mesmo modelo de um mecanismo de raciocínio sobre novos dados fornecidos no promt. Essa técnica permite o aprendizado no contexto sem a necessidade de ajuste fino caro, capacitando as empresas a usar LLMs com mais eficiência.
O RAG permite que as empresas obtenham soluções personalizadas, mantendo a relevância dos dados e otimizando os custos. Ao adotar o RAG, as empresas podem usar os recursos de raciocínio das LLMs, utilizando seus modelos existentes para processar e gerar respostas com base em novos dados. O RAG facilita as atualizações periódicas de dados sem a necessidade de ajuste fino, simplificando a integração de LLMs nas empresas.
- Forneça dados complementares como uma diretiva ou um prompt para o LLM
- Adicionar um componente de verificação de fatos em seus modelos existentes
- Treine seu modelo nos dados atualizados sem incorrer no tempo extra e nos custos associados ao ajuste fino
- Treine com dados específicos da sua empresa
Visão geral técnica do uso de RAG em LLMs (grandes modelos de linguagem)
Na recuperação de informações, o RAG é um recurso que permite que você possa aproveitar o poder dos LLMs com seus próprios dados. Habilitar uma LLM para acessar dados personalizados envolve as etapas a seguir. Primeiro, coloque os dados grandes em partes gerenciáveis. Em segundo lugar, converta as partes em um formato pesquisável. Em terceiro lugar, armazene os dados convertidos em um local que permita acesso eficiente. Além disso, armazene metadados relevantes para citações ou referências quando o LLM fornece respostas.
Vamos examinar o diagrama com mais detalhes.
Dados de origem: esses dados existem em um arquivo ou pasta em seu computador, um arquivo no armazenamento em nuvem, um ativo de dados do Azure Machine Learning, um repositório Git ou um banco de dados SQL.
Divisão de dados: Converta os dados em sua fonte em texto sem formatação. Por exemplo, documentos do Word ou PDFs precisam ser abertos e convertidos em texto. Em seguida, coloque o texto em partes menores.
Convertendo o texto em vetores: chamadas inserções. Os vetores são representações numéricas de conceitos convertidos em sequências numéricas, o que torna mais fácil para os computadores entenderem as relações entre esses conceitos.
Links entre dados de origem e inserções: armazene essas informações como metadados nas partes criadas. Use-o para ajudar as LLMs a gerar citações ao gerar respostas.
RAG com o Azure Machine Learning (visualização)
O Azure Machine Learning habilita o RAG por meio da integração com o Azure OpenAI no Microsoft Foundry Models para modelos de linguagem grandes e vetorização. Ele dá suporte ao Faiss e ao Azure AI Search (antigo Cognitive Search) como repositórios de vetores. Ele também dá suporte a ofertas, ferramentas e estruturas de software livre, como LangChain, para agrupamento de dados.
Para implementar o RAG, você deve atender a alguns requisitos principais. Primeiro, formate dados de uma maneira que permita uma pesquisa eficiente antes de enviá-los para a LLM, o que, em última análise, reduz o consumo de token. Para garantir a eficácia do RAG, atualize regularmente seus dados periodicamente. Além disso, ter a capacidade de avaliar a saída do LLM por meio dos seus dados permite medir a eficácia de suas técnicas. O Azure Machine Learning não só permite que você comece facilmente a trabalhar com esses aspectos, mas também permite melhorar e produzir no RAG. Ofertas do Azure Machine Learning:
- Amostras de como iniciar cenários de Q&A baseados em RAG.
- Experiência de interface do usuário baseada em assistente para criar e gerenciar dados e incorporá-los em fluxos de prompt.
- Capacidade de medir e aprimorar fluxos de trabalho do RAG, incluindo geração de dados de teste, criação automática de prompt e métricas de avaliação de prompt visualizadas.
- Cenários avançados com mais controle usando os novos componentes internos do RAG para criar pipelines personalizados em notebooks.
- Experiência de código que permite o uso dos dados criados com ofertas de código aberto, como o LangChain.
- Integração perfeita de fluxos de trabalho do RAG em fluxos de trabalho MLOps por meio de pipelines e trabalhos.
Conclusão
O Azure Machine Learning permite incorporar o RAG em sua solução de IA usando o estúdio do Azure Machine Learning ou escrevendo código com pipelines do Azure Machine Learning. Ele oferece várias adições de valor, como a capacidade de medir e aprimorar fluxos de trabalho RAG, geração de dados de teste, criação automática de prompts e visualização das métricas de avaliação de prompts. Ele permite a integração de fluxos de trabalho RAG em fluxos de trabalho MLOps usando pipelines. Você também pode usar seus dados com ofertas de código aberto, como o LangChain.
Próximas etapas
Como usar Repositórios de Vetores com o Azure Machine Learning (versão prévia)
Como criar um índice de vetor no prompt flow do Azure Machine Learning (versão prévia)