Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Aplica-se a: Aplicações Lógicas do Azure (Consumo + Standard)
Os recursos de IA desempenham um papel rápido e crescente em aplicativos e outros softwares, executando tarefas úteis, que economizam tempo ou novas, como interações no bate-papo. Esses recursos também podem funcionar com outros serviços, sistemas, aplicativos e fontes de dados para ajudar a criar cargas de trabalho de integração para empresas e organizações.
Este guia fornece blocos de construção, exemplos e outros recursos que mostram como usar serviços de IA como o Azure OpenAI, o Azure AI Foundry e o Azure AI Search com os Aplicativos Lógicos do Azure para criar fluxos de trabalho automatizados para soluções de integração de IA.
Fluxos de trabalho baseados em agentes e modelos de IA (Visualização)
As Aplicações Lógicas do Azure suportam fluxos de trabalho de aplicações lógicas padrão que concluem tarefas usando agentes com modelos de linguagem amplos (LLMs). Um agente usa um processo em loop iterativo para resolver problemas complexos de várias etapas. Um LLM é um programa treinado que reconhece padrões e executa trabalhos sem interação humana.
Por exemplo, um LLM pode realizar as seguintes tarefas:
- Analise, interprete e raciocine sobre informações, tais como instruções, mensagens e dados de entrada.
- Tomar decisões com base nos resultados e dados disponíveis.
- Formule e retorne respostas ao prompter com base nas instruções do agente.
Depois de criar um aplicativo lógico padrão, você pode adicionar um fluxo de trabalho que usa o tipo de fluxo de trabalho Agentes autônomos ou Agentes conversacionais . Esses tipos de fluxo de trabalho criam um fluxo de trabalho parcial que inclui uma ação vazia do Agente. Com base no tipo de fluxo de trabalho selecionado, você pode configurar o agente para trabalhar sem ou com interação humana, o que acontece por meio de uma interface de chat integrada.
Sugestão
Se você optar por começar com um fluxo de trabalho Stateful não-agente, sempre poderá adicionar uma ação do Agent mais tarde.
O agente usa linguagem natural e o LLM conectado para interpretar instruções previamente fornecidas ou interações humanas em tempo real, respectivamente. O agente também usa saídas geradas por modelo para fazer o trabalho. O modelo ajuda o agente a fornecer os seguintes recursos:
- Aceite informações sobre o papel do agente, como operar e como responder.
- Receba e responda a instruções e solicitações urgentes.
- Processe entradas, analise dados e faça escolhas com base nas informações disponíveis.
- Escolha ferramentas para concluir as tarefas necessárias para atender às solicitações. Em cenários de IA, uma ferramenta é uma sequência com uma ou mais ações que concluem uma tarefa.
- Adapte-se a ambientes que exigem flexibilidade e são fluidos, dinâmicos, imprevisíveis ou instáveis.
Com 1.400+ conectores disponíveis para ajudá-lo a criar ferramentas para os agentes usarem, os fluxos de trabalho do agente suportam muitos cenários que se beneficiam muito dos recursos do agente e do modelo.
Para obter mais informações, consulte os seguintes recursos:
Blocos de construção para soluções de IA
Esta seção descreve operações internas e links para a documentação que ajuda a criar fluxos de trabalho padrão para cenários de integração de IA, como ingestão de documentos. Essas operações possibilitam que os clientes "conversem com os dados".
Por exemplo, os conectores Azure OpenAI e Azure AI Search fornecem operações que simplificam os processos de back-end com configuração sem código. Essas operações não exigem nenhum código, lógica ou configuração personalizada para serem usadas.
Essa abordagem sem código reduz a complexidade em torno da integração de recursos de IA em seus fluxos de trabalho. Você pode automatizar fluxos de trabalho complexos para tarefas como análise de documentos, fragmentação de dados ou alimentação de modelos de IA para desbloquear todo o potencial de seus dados com o mínimo de esforço.
Blocos de construção de IA, como operações e conectores integrados, estão disponíveis para fluxos de trabalho de consumo e padrão. Os exemplos, amostras e recursos usam workflows padrão para ilustração.
Para obter mais informações, consulte os seguintes recursos:
| Tipo de recurso | Ligação |
|---|---|
| Visão geral do vídeo | Modernize a integração empresarial com o Azure Integration Services |
| Visão geral do vídeo | Integre a IA nos seus fluxos de trabalho com as Aplicações Lógicas do Azure |
| Visão geral do vídeo | Acelere o desenvolvimento de IA generativa com os Aplicativos Lógicos do Azure - Integrate 2024 |
Prepare o seu conteúdo
As seguintes ações e conectores integrados ajudam a preparar o conteúdo para consumo por serviços de IA, ingestão de dados e interações de bate-papo.
| Nome | Capacidades |
|---|---|
| Analisar um documento | Essa ação integrada converte o conteúdo em saída de cadeia de caracteres tokenizada, para que um fluxo de trabalho possa ler e analisar milhares de documentos com tipos de arquivos como PDF, DOCX, CSV, PPT, HTML e outros em vários idiomas. Esta ação ajuda você a preparar o conteúdo para consumo pelos serviços de IA do Azure em seus fluxos de trabalho. Por exemplo, as operações de conector para serviços de IA do Azure, como o Azure OpenAI e o Azure AI Search , geralmente esperam entrada tokenizada e podem lidar com apenas um número limitado de tokens. |
| Dividir texto em segmentos | Esta ação incorporada divide uma cadeia de caracteres tokenizada em partes para facilitar a utilização por ações subsequentes no mesmo fluxo de trabalho. Esta ação ajuda você a preparar o conteúdo para consumo pelos serviços de IA do Azure em seus fluxos de trabalho. As operações de conector para serviços de IA do Azure, como o Azure OpenAI e o Azure AI Search , geralmente esperam entrada tokenizada e podem lidar com apenas um número limitado de tokens. |
| Azure OpenAI | Esse conector integrado fornece operações para recursos de IA, como ingestão de dados, geração de incorporações e conclusão de bate-papo, que são essenciais para a criação de aplicativos sofisticados de IA. Você pode integrar os recursos de processamento de linguagem natural no Azure OpenAI com os recursos de pesquisa inteligente no Azure AI Search e outros conectores. Essas integrações ajudam você a acessar e trabalhar com repositórios vetoriais sem a necessidade de escrever código. |
Indexação de dados e bases de dados vetoriais
Os conectores a seguir fornecem operações para indexação e recuperação de dados quando você trabalha com bancos de dados vetoriais, pesquisa e bancos de dados padrão.
| Nome | Capacidades |
|---|---|
| Azure AI Search | Este conector integrado fornece operações para recursos de IA, como melhorar a recuperação de dados com indexação, operações vetoriais avançadas e operações de pesquisa híbrida. |
| Servidor SQL | Esse conector interno fornece operações para trabalhar com linhas, tabelas e procedimentos armazenados em bancos de dados SQL. |
| Azure Cosmos DB | Esse conector gerenciado fornece operações para trabalhar com documentos e procedimentos armazenados em bancos de dados globalmente distribuídos, elásticos, escaláveis de forma independente e multimodelos. Observação: esse serviço era anteriormente chamado de Banco de Dados de Documentos do Azure. |
Mais recursos
Para obter mais informações, consulte os seguintes recursos:
Bate-papo quase em tempo real com dados
As seções a seguir descrevem maneiras de configurar recursos de bate-papo quase em tempo real para seus dados usando os Aplicativos Lógicos do Azure e vários serviços de IA.
Criar assistentes do Azure OpenAI com os Aplicativos Lógicos do Azure
Com o Azure OpenAI, você pode criar facilmente recursos semelhantes a agentes em seus aplicativos usando a API de Assistentes. Embora a capacidade de criar agentes já existisse anteriormente, o processo muitas vezes exigia engenharia significativa, bibliotecas externas e várias integrações.
Com os Assistentes, pode agora criar rapidamente copilotos personalizados com estado que são treinados nos seus dados empresariais e podem lidar com diversas tarefas usando os mais recentes modelos do Transformador Pré-treinado Generativo (GPT), ferramentas e conhecimento. A versão atual inclui recursos como ferramentas de Pesquisa e Navegação de Arquivos, recursos aprimorados de segurança de dados, controles aprimorados, novos modelos e suporte expandido a regiões. Esses aprimoramentos facilitam a transição da prototipagem para a produção.
Agora você pode criar Assistentes chamando fluxos de trabalho dos Aplicativos Lógicos do Azure como funções de IA. Você pode descobrir, importar e invocar fluxos de trabalho no Azure OpenAI Studio a partir do playground dos Assistentes OpenAI do Azure sem escrever nenhum código. O playground Assistentes enumera e lista todos os fluxos de trabalho em sua assinatura que são qualificados para chamada de função.
Para testar assistentes com chamada de função, você pode importar fluxos de trabalho como funções de IA usando uma experiência de navegação e seleção. A geração de especificações de função e outras configurações são extraídas automaticamente do Swagger para o seu fluxo de trabalho. A chamada de função invoca fluxos de trabalho com base em solicitações do usuário. Todos os parâmetros apropriados são passados com base na definição.
Para obter mais informações, consulte os seguintes recursos:
| Tipo de recurso | Ligação |
|---|---|
| Documentação | Chamar fluxos de trabalho de Aplicativos Lógicos do Azure como funções usando os Assistentes OpenAI do Azure |
| Artigo do blog | Crie assistentes do Azure OpenAI com chamadas de função |
| Artigo do blog | Assistentes de IA do Azure com Aplicativos Lógicos do Azure |
| Vídeo de demonstração | Aplicativos Lógicos do Azure como um plug-in de IA |
Integração com Kernel Semântico
Este kit de desenvolvimento leve e de código aberto ajuda você a criar facilmente agentes de IA e integrar os modelos de IA mais recentes em sua base de código C#, Python ou Java. No nível mais simples, o kernel é um contêiner de injeção de dependência que gerencia todos os serviços e plugins que seu aplicativo de IA precisa executar.
Se você fornecer todos os seus serviços e plugins para o kernel, a IA usa perfeitamente esses componentes conforme necessário. Como componente central, o kernel serve como um middleware eficiente que ajuda você a fornecer rapidamente soluções de nível empresarial.
Para obter mais informações, consulte os seguintes recursos:
| Tipo de recurso | Ligação |
|---|---|
| Artigo do blog | Integre fluxos de trabalho de aplicativos lógicos padrão como plug-ins com o Kernel Semântico: guia passo a passo |
| Exemplo de GitHub | Kernel semântico para aplicativos lógicos do Azure |
| Documentação | Introdução ao Kernel Semântico |
Gerencie a coleta e o processamento inteligentes de documentos
Você pode usar o Azure AI Document Intelligence e os Aplicativos Lógicos do Azure para criar fluxos de trabalho inteligentes de processamento de documentos. O conector Document Intelligence fornece operações que ajudam a extrair texto e informações de vários documentos. O Document Intelligence ajuda você a gerenciar a velocidade na coleta e processamento de grandes quantidades de dados armazenados em formulários e documentos com uma ampla variedade de tipos de dados.
Nota
O conector de Inteligência de Documentos é atualmente chamado Form Recognizer na galeria de conectores do Azure Logic Apps. Você pode encontrar as operações do conector, que são hospedadas e executadas em um ambiente multi-inquilino do Azure, sob o rótulo Compartilhado na galeria.
Para obter mais informações, consulte os seguintes recursos:
| Tipo de recurso | Ligação |
|---|---|
| Documentação | Criar um fluxo de trabalho de Inteligência Documental com os Aplicativos Lógicos do Azure |
| Documentação | Referência do conector do Reconhecedor de Formulário |
| Vídeo de demonstração | Processamento de faturas com Aplicativos Lógicos do Azure e IA |
Geração aumentada de recuperação (RAG)
Modelos de IA generativa ou LLMs como o ChatGPT são treinados para gerar saída para tarefas como responder perguntas e completar frases usando grandes volumes de dados estáticos e bilhões de parâmetros. A geração aumentada de recuperação adiciona recursos de recuperação de informações a um LLM e modifica suas interações para que ele possa responder às consultas do usuário fazendo referência ao conteúdo que aumenta seus dados de treinamento.
Um LLM pode usar o RAG para permitir que chatbots acessem informações específicas do domínio ou atualizadas. A RAG pode ajudá-lo a implementar casos de uso que incorporam dados internos da empresa ou informações factuais fornecidas por uma fonte autorizada.
A RAG estende os recursos já poderosos de um LLM para domínios específicos ou para a base de conhecimento interna de uma organização sem ter que treinar novamente o modelo. A arquitetura RAG também fornece uma abordagem econômica para melhorar e manter a produção LLM relevante, precisa e útil.
Exemplos de RAG
Os exemplos a seguir mostram maneiras de aplicar ou implementar o padrão RAG usando fluxos de trabalho padrão nos Aplicativos Lógicos do Azure.
Crie um aplicativo de IA baseado em RAG de ponta a ponta com os Aplicativos Lógicos do Azure
Bate-papo com dados de seguros
Este exemplo usa um padrão RAG clássico em que um fluxo de trabalho ingere documentos e dados de uma companhia de seguros para que os funcionários possam fazer perguntas sobre seus benefícios e opções de cobertura do plano. Para obter mais informações, consulte os seguintes recursos:
| Tipo de recurso | Ligação |
|---|---|
| Artigo do blog | Os conectores Azure OpenAI e Azure AI Search estão em pré-visualização pública para Aplicações Lógicas do Azure (Padrão) |
| Vídeo de demonstração | Ingerir dados de documentos em seu serviço Azure AI Search e conversar com seus dados com os Aplicativos Lógicos do Azure |
| Exemplo de GitHub | Criar um bate-papo com seus dados - Projeto de aplicativo lógico padrão |
Automatize as respostas às perguntas do StackOverflow
Este exemplo mostra como um fluxo de trabalho pode responder automaticamente a novas perguntas do StackOverflow que têm uma hashtag específica usando os conectores Azure OpenAI e Azure AI Search . A amostra pode ingerir posts anteriores e documentação do produto. Quando uma nova pergunta está disponível, a solução pode responder automaticamente usando a base de conhecimento e, em seguida, pedindo a um humano para aprovar a resposta antes de postar no StackOverflow.
Você pode personalizar esse fluxo de trabalho para acionar diariamente, semanalmente ou mensalmente e simplificar o suporte da comunidade configurando seu próprio sistema de resposta automatizado para qualquer hashtag. Você também pode adaptar essa solução para tíquetes no Outlook, ServiceNow ou outras plataformas usando conectores de Aplicativos Lógicos do Azure para acesso seguro.
Para obter mais informações, consulte os seguintes recursos:
| Tipo de recurso | Ligação |
|---|---|
| Artigo do blog | Automatize respostas a consultas StackOverflow usando o Azure OpenAI e os Aplicativos Lógicos do Azure |
| Exemplo de GitHub | Automatize as respostas a perguntas não respondidas do StackOverflow |
Ingerir documentos e conversar com dados
Os dados são a pedra angular de qualquer aplicação de IA e são únicos para cada organização. Quando você cria um aplicativo de IA, a ingestão eficiente de dados é fundamental para o sucesso. Não importa onde seus dados residam, você pode integrar a IA em processos de negócios novos e existentes criando fluxos de trabalho padrão que usam pouco ou nenhum código.
Mais de 1.400 conectores e operações empresariais permitem-lhe utilizar as Aplicações Lógicas do Azure para aceder e executar tarefas rapidamente com uma vasta gama de serviços, sistemas, aplicações e bases de dados. Quando você usa esses conectores com serviços de IA, como o Azure OpenAI e o Azure AI Search, sua organização pode transformar cargas de trabalho como as seguintes:
- Automatize tarefas de rotina.
- Melhore as interações com os clientes com os recursos de bate-papo.
- Fornecer acesso aos dados organizacionais quando necessário.
- Gere análises ou respostas inteligentes.
Por exemplo, quando integra serviços de IA utilizando as operações do conector Azure OpenAI e Azure AI Search nos seus fluxos de trabalho, a sua organização pode implementar sem dificuldades o padrão RAG. O RAG minimiza os custos usando um sistema de recuperação de informações para referenciar conhecimentos específicos ou confiáveis do domínio e aumentar o treinamento de um LLM sem ter que treinar novamente o modelo. Para obter mais informações, consulte a geração aumentada de recuperação (RAG) e os seguintes recursos:
| Tipo de recurso | Ligação |
|---|---|
| Artigo do blog | Integre documentos em aplicações de IA generativa a partir de mais de 1.000 fontes de dados usando Azure Logic Apps |
| Vídeo de demonstração | Ingerir documento com base em RAG usando Aplicativos Lógicos do Azure (Padrão) |
Guia de início rápido com modelos de fluxo de trabalho
Para dar suporte à integração de IA e ajudá-lo a criar rapidamente seus aplicativos, os Aplicativos Lógicos do Azure incluem modelos de fluxo de trabalho pré-criados que ingerem dados de muitas fontes de dados comuns, como SharePoint, Armazenamento de Arquivos do Azure, Armazenamento de Blob e Protocolo de Transferência de Arquivos Seguros (SFTP). Ao adicionar um novo fluxo de trabalho ao seu aplicativo lógico Padrão ou de consumo, você pode selecionar um modelo pré-criado como ponto de partida.
Cada modelo segue um padrão de fluxo de trabalho comum que oferece suporte a um cenário específico. Você também pode criar modelos de fluxo de trabalho que podem ser compartilhados com outros desenvolvedores de fluxo de trabalho publicando-os no repositório de modelos do GitHub.
A tabela a seguir descreve alguns modelos de fluxo de trabalho de exemplo:
| Fonte do documento | Descrição do modelo | Serviços de IA usados |
|---|---|---|
| Inteligência de documentos de IA do Azure | Padrão: analise documentos complexos usando o Azure OpenAI. | Azure OpenAI |
| Armazenamento de Blobs do Azure | Padrão: - Ingerir e indexar arquivos usando o padrão RAG. - Ingerir e vetorizar documentos no Azure Cosmos DB para NoSQL usando o padrão RAG. |
- Azure OpenAI - Azure AI Search |
| Armazenamento de Arquivos do Azure | Padrão: - Ingerir documentos em AI Search em um cronograma. - Ingerir e indexar arquivos em um cronograma usando o padrão RAG. - Ingerir e indexar arquivos usando o padrão RAG. |
- Azure OpenAI - Azure AI Search |
| Baseado em solicitação | Padrão: - Converse com seus documentos usando o padrão RAG. - Ingerir e indexar documentos utilizando o padrão RAG. |
- Azure OpenAI - Azure AI Search |
| OneDrive para Empresas | Consumo: - Vetorizar arquivos do OneDrive for Business para AI Search em um cronograma. Padrão: - Ingerir e indexar arquivos usando o padrão RAG. - Importar documentos do OneDrive para a Pesquisa de IA de forma agendada. |
- Azure OpenAI - Azure AI Search |
| S.A. | Consumo: - Sincronizar parceiros de negócios para a pasta SharePoint usando OData. |
|
| SFTP | Padrão: Ingerir e indexar arquivos usando o padrão RAG. | - Azure OpenAI - Azure AI Search |
| SharePoint Online | Consumo: - Vetorizar arquivos do SharePoint Online para AI Search a pedido. Padrão: - Ingerir e indexar arquivos usando o padrão RAG. - Indexar documentos para AI Search. Recupere e raciocine com LLMs do Azure OpenAI usando o padrão RAG. |
- Azure OpenAI - Azure AI Search |
Para obter mais informações, consulte os seguintes recursos: