Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Aplica-se a: Aplicativos Lógicos do Azure (Consumo + Padrão)
Os recursos de IA desempenham um papel rápido e crescente em aplicativos e outros softwares executando tarefas úteis, com economia de tempo ou novas, como interações de chat. Esses recursos também podem funcionar com outros serviços, sistemas, aplicativos e fontes de dados para ajudar a criar cargas de trabalho de integração para empresas e organizações.
Este guia fornece blocos de construção, exemplos e outros recursos que mostram como usar serviços de IA como o Azure OpenAI, o Azure AI Foundry e o Azure AI Search com os Aplicativos Lógicos do Azure para criar fluxos de trabalho automatizados para soluções de integração de IA.
Agente de IA e fluxos de trabalho alimentados por modelo (versão prévia)
Os Azure Logic Apps oferecem suporte a fluxos de trabalho de aplicativo lógico Standard que completam tarefas usando agentes com modelos de linguagem extensa. Um agente usa um processo em loop iterativo para resolver problemas complexos de várias etapas. Um LLM é um programa treinado que reconhece padrões e executa trabalhos sem interação humana.
Por exemplo, uma LLM pode executar as seguintes tarefas:
- Analise, interprete e raciocine sobre informações, tais como instruções, prompts e entradas.
- Tome decisões com base nos resultados e nos dados disponíveis.
- Formular e retornar respostas ao prompter com base nas instruções do agente.
Depois de criar um aplicativo lógico Standard, você pode adicionar um fluxo de trabalho que usa o tipo de fluxo de trabalho Agentes Autônomos ou Agentes de Conversação . Esses tipos de fluxo de trabalho criam um fluxo de trabalho parcial que inclui uma ação vazia do Agente . Com base no tipo de fluxo de trabalho selecionado, você pode configurar o agente para funcionar sem ou com a interação humana, o que acontece por meio de uma interface de chat integrada.
Dica
Se você optar por começar com um fluxo de trabalho com estado não-agente, sempre poderá adicionar uma ação do Agente mais tarde.
O agente usa a linguagem natural e a LLM conectada para interpretar instruções fornecidas anteriormente ou interações humanas em tempo real, respectivamente. O agente também usa saídas geradas por modelo para fazer o trabalho. O modelo ajuda o agente a fornecer os seguintes recursos:
- Aceite informações sobre a função do agente, como operar e como responder.
- Receba e responda às instruções e requisições.
- Processe entradas, analise dados e faça escolhas com base nas informações disponíveis.
- Escolha ferramentas para concluir as tarefas necessárias para atender às solicitações. Em cenários de IA, uma ferramenta é uma sequência com uma ou mais ações que completam uma tarefa.
- Adapte-se a ambientes que exigem flexibilidade e são fluidos, dinâmicos, imprevisíveis ou instáveis.
Com mais de 1.400 conectores disponíveis para ajudá-lo a criar ferramentas para os agentes usarem, os fluxos de trabalho do agente dão suporte a muitos cenários que se beneficiam muito dos recursos de agente e modelo.
Para saber mais, consulte os recursos a seguir:
Blocos de construção para soluções de IA
Esta seção descreve operações internas e links para a documentação que ajuda você a criar fluxos de trabalho Standard para cenários de integração de IA, como ingestão de documentos. Essas operações possibilitam que os clientes "conversem com os dados".
Por exemplo, os conectores do Azure OpenAI e do Azure AI Search fornecem operações que simplificam processos de back-end com configuração sem código. Essas operações não exigem nenhum código personalizado, lógica ou configuração a ser usada.
Essa abordagem sem código reduz a complexidade em torno da integração de recursos de IA em seus fluxos de trabalho. Você pode automatizar fluxos de trabalho complexos para tarefas como análise de documentos, agrupamento de dados ou ativação de modelos de IA para desbloquear todo o potencial de seus dados com o mínimo de esforço.
Os blocos de construção de IA, como operações internas e conectores, estão disponíveis para fluxos de trabalho padrão e consumo. Os exemplos, amostras e recursos usam fluxos de trabalho padrão para ilustração.
Para saber mais, consulte os recursos a seguir:
| Tipo de recurso | Ligação |
|---|---|
| Visão geral em vídeo | Modernizar a integração empresarial com o Azure Integration Services |
| Visão geral em vídeo | Integrar a IA aos seus fluxos de trabalho com os Aplicativos Lógicos do Azure |
| Visão geral em vídeo | Acelerar o desenvolvimento de IA generativo com os Aplicativos Lógicos do Azure – Integrar 2024 |
Preparar seu conteúdo
As seguintes ações internas e conectores ajudam você a preparar o conteúdo para consumo por serviços de IA, ingestão de dados e interações de chat.
| Nome | Funcionalidades |
|---|---|
| Analisar um documento | Essa ação interna converte conteúdo em saída de cadeia de caracteres tokenizada, de modo que um fluxo de trabalho possa ler e analisar milhares de documentos com tipos de arquivo como PDF, DOCX, CSV, PPT, HTML e outros em vários idiomas. Essa ação ajuda você a preparar o conteúdo para consumo pelos serviços de IA do Azure em seus fluxos de trabalho. Por exemplo, as operações de conector para serviços de IA do Azure, como Azure OpenAI e Pesquisa de IA do Azure geralmente esperam entrada tokenizada e podem lidar com apenas um número limitado de tokens. |
| Texto em partes | Essa ação integrada divide uma string tokenizada em partes para facilitar o uso em ações subsequentes no mesmo fluxo de trabalho. Essa ação ajuda você a preparar o conteúdo para consumo pelos serviços de IA do Azure em seus fluxos de trabalho. As operações de conector para serviços de IA do Azure, como o Azure OpenAI e o Azure AI Search , geralmente esperam entrada tokenizada e podem lidar com apenas um número limitado de tokens. |
| OpenAI do Azure | Esse conector interno fornece operações para recursos de IA, como ingestão de dados, geração de inserções e conclusão de chat que são essenciais para a criação de aplicativos sofisticados de IA. Você pode integrar os recursos de processamento de linguagem natural no Azure OpenAI com os recursos de pesquisa inteligente no Azure AI Search e outros conectores. Essas integrações ajudam você a acessar e trabalhar com repositórios de vetores sem a necessidade de escrever código. |
Bancos de dados de indexação e vetor
Os conectores a seguir fornecem operações para indexação e recuperação de dados quando você trabalha com bancos de dados vetoriais, pesquisa e bancos de dados padrão.
| Nome | Funcionalidades |
|---|---|
| Pesquisa de IA do Azure | Esse conector interno fornece operações para recursos de IA, como aprimoramento da recuperação de dados com indexação, operações de vetor avançadas e operações de pesquisa híbrida. |
| SQL Server | Esse conector interno fornece operações para trabalhar com linhas, tabelas e procedimentos armazenados em bancos de dados SQL. |
| Azure Cosmos DB | Esse conector gerenciado fornece operações para trabalhar com documentos e procedimentos armazenados em bancos de dados globalmente distribuídos, elásticos, escalonáveis de forma independente e multimodelo. Observação: esse serviço foi anteriormente denominado Azure DocumentDB. |
Mais recursos
Para saber mais, consulte os recursos a seguir:
Chat quase em tempo real com dados
As seções a seguir descrevem maneiras de configurar recursos de chat quase em tempo real para seus dados usando Aplicativos Lógicos do Azure e vários serviços de IA.
Criar assistentes do Azure OpenAI com Aplicativos Lógicos do Azure
Com o Azure OpenAI, você pode facilmente criar recursos semelhantes a agentes em seus aplicativos usando a API de Assistentes. Embora a capacidade de criar agentes existisse anteriormente, o processo geralmente exigia engenharia significativa, bibliotecas externas e várias integrações.
Com os Assistentes, agora é possível criar rapidamente copilotos personalizados com estado, treinados com os dados corporativos e capazes de lidar com diversas tarefas utilizando os mais recentes modelos de GPT (Transformadores Pré-Treinados Generativos), ferramentas e conhecimento. A versão atual inclui recursos como ferramentas de Pesquisa e Procura de Arquivos, recursos aprimorados de segurança de dados, controles aprimorados, novos modelos e suporte expandido à região. Esses aprimoramentos facilitam a transição da prototipagem para a produção.
Agora você pode criar Assistentes chamando fluxos de trabalho dos Aplicativos Lógicos do Azure como funções de IA. Você pode descobrir, importar e invocar fluxos de trabalho no Azure OpenAI Studio no playground de Assistentes do Azure OpenAI sem escrever nenhum código. O playground assistentes enumera e lista todos os fluxos de trabalho em sua assinatura qualificados para chamada de função.
Para testar assistentes com chamadas de função, você pode importar fluxos de trabalho como funções de IA usando uma experiência de navegação e seleção. A geração de especificação de função e outras configurações são automaticamente extraídas do Swagger para seu fluxo de trabalho. A chamada de função invoca fluxos de trabalho com base em prompts do usuário. Todos os parâmetros apropriados são passados com base na definição.
Para saber mais, consulte os recursos a seguir:
| Tipo de recurso | Ligação |
|---|---|
| Documentação | Chamar fluxos de trabalho dos Aplicativos Lógicos do Azure como funções usando assistentes do Azure OpenAI |
| Artigo do blog | Criar assistentes do Azure OpenAI com chamada de função |
| Artigo do blog | Assistentes de IA do Azure com Aplicativos Lógicos do Azure |
| Vídeo de demonstração | Aplicativos Lógicos do Azure como um plug-in de IA |
Integrar com Kernel Semântico
Esse kit de desenvolvimento leve e de software livre ajuda você a criar facilmente agentes de IA e integrar os modelos de IA mais recentes à base de código C#, Python ou Java. No nível mais simples, o kernel é um contêiner de injeção de dependência que gerencia todos os serviços e plug-ins que seu aplicativo de IA precisa executar.
Se você fornecer todos os seus serviços e plug-ins ao kernel, a IA usará perfeitamente esses componentes conforme necessário. Como componente central, o kernel serve como um middleware eficiente que ajuda você a fornecer rapidamente soluções de nível empresarial.
Para saber mais, consulte os recursos a seguir:
| Tipo de recurso | Ligação |
|---|---|
| Artigo do blog | Integrar fluxos de trabalho do aplicativo lógico Standard como plug-ins com Kernel Semântico: guia passo a passo |
| Exemplo do GitHub | Kernel Semântico para Aplicativos Lógicos do Azure |
| Documentação | Introdução ao Kernel Semântico |
Gerenciar coleta e processamento de documentos inteligentes
Você pode usar o Azure AI Document Intelligence e os Aplicativos Lógicos do Azure para criar fluxos de trabalho inteligentes de processamento de documentos. O conector do Document Intelligence fornece operações que ajudam você a extrair texto e informações de vários documentos. O Document Intelligence ajuda você a gerenciar a velocidade na coleta e processamento de grandes quantidades de dados armazenados em formulários e documentos com uma ampla variedade de tipos de dados.
Observação
Atualmente, o conector do Document Intelligence é nomeado Reconhecimento de Formulários na galeria de conectores do designer de fluxo de trabalho para Aplicativos Lógicos do Azure. Você pode encontrar as operações do conector, que são hospedadas e executadas no Azure multilocatário, sob o rótulo Compartilhado na galeria.
Para saber mais, consulte os recursos a seguir:
| Tipo de recurso | Ligação |
|---|---|
| Documentação | Criar um fluxo de trabalho do Document Intelligence com os Aplicativos Lógicos do Azure |
| Documentação | Referência do conector do Reconhecimento de Formulários |
| Vídeo de demonstração | Processamento de fatura com Aplicativos Lógicos do Azure e IA |
RAG (geração aumentada de recuperação)
Modelos de IA generativos ou LLMs como ChatGPT são treinados para gerar saída para tarefas como responder perguntas e concluir sentenças usando grandes volumes de dados estáticos e bilhões de parâmetros. Geração aumentada por recuperação adiciona capacidades de recuperação de informações a um LLM e altera a forma como ele interage, permitindo responder a consultas de usuários referenciando conteúdos que complementam seus dados de treinamento.
Uma LLM pode usar o RAG para permitir que os chatbots acessem informações específicas do domínio ou atualizadas. O RAG pode ajudá-lo a implementar casos de uso que incorporam dados internos da empresa ou informações factuais fornecidas por uma fonte autoritativa.
O RAG estende os recursos já avançados de uma LLM para domínios específicos ou a base de dados de conhecimento interno de uma organização sem precisar treinar novamente o modelo. A arquitetura RAG também fornece uma abordagem econômica para melhorar, e manter a saída LLM relevante, precisa e útil.
Exemplos de RAG
Os exemplos a seguir mostram maneiras de aplicar ou implementar o padrão RAG usando fluxos de trabalho Standard nos Aplicativos Lógicos do Azure.
Criar um aplicativo de IA baseado em RAG de ponta a ponta com os Aplicativos Lógicos do Azure
Conversar com dados de seguro
Este exemplo usa um padrão RAG clássico em que um fluxo de trabalho ingere documentos e dados de uma seguradora para que os funcionários possam fazer perguntas sobre seus benefícios e opções de cobertura de plano. Para saber mais, consulte os recursos a seguir:
Automatizar respostas para perguntas do StackOverflow
Este exemplo mostra como um fluxo de trabalho pode responder automaticamente a novas perguntas do StackOverflow que têm uma hashtag específica usando os conectores do Azure OpenAI e do Azure AI Search . O exemplo pode ingerir postagens anteriores e documentação do produto. Quando uma nova pergunta está disponível, a solução pode responder automaticamente usando a base de dados de conhecimento e, em seguida, pedir a um humano que aprove a resposta antes de postar no StackOverflow.
Você pode personalizar esse fluxo de trabalho para disparar diariamente, semanalmente ou mensalmente e simplificar o suporte da comunidade configurando seu próprio sistema de resposta automatizado para qualquer hashtag. Você também pode adaptar essa solução para tíquetes no Outlook, ServiceNow ou outras plataformas usando conectores dos Aplicativos Lógicos do Azure para acesso seguro.
Para saber mais, consulte os recursos a seguir:
| Tipo de recurso | Ligação |
|---|---|
| Artigo do blog | Automatizar respostas a consultas do StackOverflow usando o Azure OpenAI e os Aplicativos Lógicos do Azure |
| Exemplo do GitHub | Automatizar respostas a perguntas sem resposta do StackOverflow |
Ingerir documentos e conversar com dados
Os dados são a base para qualquer aplicativo de IA e são exclusivos para cada organização. Quando você cria um aplicativo de IA, a ingestão eficiente de dados é essencial para o sucesso. Não importa onde seus dados residem, você pode integrar a IA em processos de negócios novos e existentes criando fluxos de trabalho Standard que usam pouco ou nenhum código.
Mais de 1.400 conectores e operações empresariais permitem que você use os Aplicativos Lógicos do Azure para acessar e executar tarefas rapidamente com uma ampla gama de serviços, sistemas, aplicativos e bancos de dados. Quando você usa esses conectores com serviços de IA, como o Azure OpenAI e o Azure AI Search, sua organização pode transformar cargas de trabalho como as seguintes:
- Automatizar tarefas rotineiras.
- Aprimore as interações do cliente com recursos de chat.
- Forneça acesso aos dados organizacionais quando necessário.
- Gere insights ou respostas inteligentes.
Por exemplo, quando você integra os serviços de IA usando as operações do conector do Azure OpenAI e do Azure AI Search em seus fluxos de trabalho, sua organização pode implementar perfeitamente o padrão RAG. O RAG minimiza o custo usando um sistema de recuperação de informações para referenciar conhecimentos específicos do domínio ou autoritativos e aumentar o treinamento de uma LLM sem precisar treinar novamente o modelo. Para obter mais informações, confira a RAG (geração aumentada por recuperação) e os seguintes recursos:
| Tipo de recurso | Ligação |
|---|---|
| Artigo do blog | Ingerir documentos para aplicativos de IA generativos de mais de 1.000 fontes de dados usando Aplicativos Lógicos do Azure |
| Vídeo de demonstração | Ingerir documento com base em RAG usando Aplicativos Lógicos do Azure (Standard) |
Início Rápido com modelos de fluxo de trabalho
Para dar suporte à integração de IA e ajudá-lo a criar rapidamente seus aplicativos, os Aplicativos Lógicos do Azure incluem modelos de fluxo de trabalho predefinidos que ingerem dados de várias fontes de dados comuns, como SharePoint, Armazenamento de Arquivos do Azure, Armazenamento de Blobs e Protocolo de Transferência de Arquivo Seguro (SFTP). Ao adicionar um novo fluxo de trabalho ao seu aplicativo de lógica Standard ou de Consumo, você pode selecionar um modelo pronto como seu ponto de partida.
Cada modelo segue um padrão de fluxo de trabalho comum que dá suporte a um cenário específico. Você também pode criar modelos de fluxo de trabalho que podem ser compartilhados com outros desenvolvedores de fluxo de trabalho publicando-os no repositório de modelos do GitHub.
A tabela a seguir descreve alguns modelos de fluxo de trabalho de exemplo:
| Origem do documento | Descrição do modelo | Serviços de IA usados |
|---|---|---|
| IA do Azure para Informação de Documentos | Padrão: analisar documentos complexos usando o Azure OpenAI. | OpenAI do Azure |
| Armazenamento de Blobs do Azure | Padrão: - Ingerir e indexar arquivos usando o padrão RAG. - Ingerir e vetorizar documentos no Azure Cosmos DB para NoSQL usando o padrão RAG. |
– OpenAI do Azure – Pesquisa de IA do Azure |
| Armazenamento de Arquivos do Azure | Padrão: – Ingestão de documentos em um agendamento na Pesquisa de IA. - Ingerir e indexar arquivos em um agendamento usando o padrão RAG. - Ingerir e indexar arquivos usando o padrão RAG. |
– OpenAI do Azure – Pesquisa de IA do Azure |
| Baseado em solicitação | Padrão: – Converse com seus documentos usando o padrão RAG. - Ingerir e indexar documentos usando o padrão RAG. |
– OpenAI do Azure – Pesquisa de IA do Azure |
| OneDrive for Business | Consumo: – Vetorização de arquivos do OneDrive for Business para a Pesquisa de IA de forma agendada. Padrão: - Ingerir e indexar arquivos usando o padrão RAG. – Ingestão de documentos do OneDrive na Pesquisa de IA de forma agendada. |
– OpenAI do Azure – Pesquisa de IA do Azure |
| SAP | Consumo: – Sincronizar parceiros de negócios com a pasta do SharePoint usando o OData. |
|
| SFTP | Padrão: ingerir e indexar arquivos usando o padrão RAG. | – OpenAI do Azure – Pesquisa de IA do Azure |
| SharePoint online | Consumo: – Vetorize arquivos do SharePoint Online para a Pesquisa de IA sob solicitação. Padrão: - Ingerir e indexar arquivos usando o padrão RAG. - Indexar documentos para a Pesquisa de IA. Recupere e raciocine com LLMs do OpenAI do Azure usando o padrão RAG. |
– OpenAI do Azure – Pesquisa de IA do Azure |
Para saber mais, consulte os recursos a seguir: