Introdução
Aplicativos de IA generativos são criados em modelos de linguagem. O processo de desenvolvimento geralmente começa com uma exploração e comparação de modelos de base disponíveis para encontrar aquele que melhor atenda às necessidades específicas do seu aplicativo. Depois de selecionar um modelo adequado, implante-o em um ponto de extremidade em que ele possa ser consumido por um aplicativo cliente ou agente de IA.
Os modelos de base, como a família gpt de modelos, são modelos de linguagem de última geração projetados para entender, gerar e interagir com a linguagem natural. Alguns casos de uso comuns para modelos são:
- Conversão de fala em texto e conversão de texto em fala. Por exemplo, gerar legendas para vídeos.
- Tradução automática. Por exemplo, traduzir texto do inglês para o japonês.
- Classificação de textos. Por exemplo, rotular um email como spam ou não spam.
- Extração de entidade. Por exemplo, extrair palavras-chave ou nomes de um documento.
- Resumo de texto. Por exemplo, gerar um resumo curto de um parágrafo de um documento de várias páginas.
- Respostas às perguntas. Por exemplo, forneça respostas a perguntas como "Qual é a capital da França?"
- Raciocínio. Por exemplo, resolva um problema matemático.
Neste módulo, você se concentra em explorar os modelos de base usados para resposta a perguntas. Os modelos de base que você explora podem ser usados para aplicativos de chat nos quais você usa um modelo de linguagem para gerar uma resposta à pergunta de um usuário.
Observação
O mais recente avanço em modelos de IA generativos deve-se ao desenvolvimento da arquitetura transformer . Os transformadores foram introduzidos no artigo Attention Is All You Need de Vaswani e outros, de 2017. A arquitetura de Transformador forneceu duas inovações ao NLP que resultaram no surgimento de modelos de base:
- Em vez de processar palavras sequencialmente, os Transformadores processam cada palavra de maneira independente e paralela usando a atenção.
- Além da similaridade semântica entre palavras, os Transformadores usam codificação posicional para incluir as informações sobre a posição de uma palavra em uma frase.