Compartir a través de


Manual, ejemplos, muestras y otros recursos para flujos de trabajo de IA en Azure Logic Apps

Se aplica a: Azure Logic Apps (Consumo + Estándar)

Las funcionalidades de inteligencia artificial desempeñan un papel rápido y creciente en aplicaciones y otro software mediante la realización de tareas útiles, de ahorro de tiempo o nuevas, como interacciones de chat. Estas funcionalidades también pueden trabajar con otros servicios, sistemas, aplicaciones y orígenes de datos para ayudar a crear cargas de trabajo de integración para empresas y organizaciones.

En esta guía se proporcionan bloques de creación, ejemplos y otros recursos que muestran cómo usar servicios de inteligencia artificial como Azure OpenAI, Azure AI Foundry y Azure AI Search con Azure Logic Apps para crear flujos de trabajo automatizados para soluciones de integración de IA.

Agentes de IA y flujos de trabajo con tecnología de modelos (versión preliminar)

Azure Logic Apps admite flujos de trabajo de aplicaciones lógicas estándar que completan tareas mediante agentes con modelos de lenguaje grandes (LLM). Un agente usa un proceso en bucle iterativo para resolver problemas complejos y de varios pasos. Un LLM es un programa entrenado que reconoce patrones y realiza trabajos sin interacción humana.

Por ejemplo, un LLM puede realizar las siguientes tareas:

  • Analice, interprete y razone sobre información como instrucciones, indicaciones y entradas.
  • Tome decisiones basadas en los resultados y los datos disponibles.
  • Formule y devuelva respuestas al solicitante en función de las instrucciones del agente.

Después de crear una aplicación lógica estándar, puede agregar un flujo de trabajo que use el tipo de flujo de trabajo Agentes autónomos o Agentes de conversación . Estos tipos de flujo de trabajo crean un flujo de trabajo parcial que incluye una acción de agente vacía. En función del tipo de flujo de trabajo seleccionado, puede configurar el agente para que funcione sin interacción humana o sin interacción humana, lo que sucede a través de una interfaz de chat integrada.

Sugerencia

Si decide empezar con un flujo de trabajo sin agente Stateful, siempre puede agregar una acción Agente más adelante.

El agente usa lenguaje natural y LLM conectado para interpretar instrucciones proporcionadas anteriormente o interacciones humanas en tiempo real, respectivamente. El agente también usa salidas generadas por modelos para realizar el trabajo. El modelo ayuda al agente a proporcionar las siguientes funcionalidades:

  • Acepte información sobre el rol del agente, cómo operar y cómo responder.
  • Recibir y responder a instrucciones y solicitudes urgentes.
  • Procesar entradas, analizar datos y tomar decisiones basadas en la información disponible.
  • Elija herramientas para completar las tareas necesarias para satisfacer las solicitudes. En escenarios de IA, una herramienta es una secuencia con una o más acciones que completan una tarea.
  • Adaptarse a entornos que requieren flexibilidad y son fluidos, dinámicos, impredecibles o inestables.

Con más de 1400 conectores disponibles para ayudarle a crear herramientas para que los agentes los usen, los flujos de trabajo del agente admiten muchos escenarios que se benefician enormemente de las funcionalidades del agente y del modelo.

Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Vínculo
Documentación Flujos de trabajo con agentes y modelos de IA en Azure Logic Apps
Documentación Creación de flujos de trabajo de agente autónomo en Azure Logic Apps
Documentación Creación de flujos de trabajo de agente conversacional en Azure Logic Apps
Laboratorio Creación del primer flujo de trabajo de agente autónomo en Azure Logic Apps
Laboratorio Creación del primer flujo de trabajo del agente conversacional en Azure Logic Apps
Artículo de blog Introducción a la era de la automatización de procesos empresariales multiagente
Demostración de vídeo Orientado al código y declarativo con múltiples agentes

Bloques de creación para soluciones de IA

En esta sección se describen las operaciones integradas y los vínculos a la documentación que le ayudan a crear flujos de trabajo estándar para escenarios de integración de IA, como la ingesta de documentos. Estas operaciones permiten a los clientes "chatear con los datos".

Por ejemplo, los conectores de Azure OpenAI y Azure AI Search proporcionan operaciones que simplifican los procesos de back-end con la configuración sin código. Estas operaciones no requieren ningún código, lógica ni configuración personalizados para poder usarse.

Este enfoque sin código reduce la complejidad en torno a la integración de funcionalidades de inteligencia artificial en los flujos de trabajo. Puede automatizar flujos de trabajo complejos para tareas como análisis de documentos, fragmentación de datos o modelos de inteligencia artificial para desbloquear el potencial completo de los datos con un esfuerzo mínimo.

Los bloques de creación de inteligencia artificial, como las operaciones integradas y los conectores, están disponibles para flujos de trabajo Consumo y Estándar. Los ejemplos, muestras y recursos utilizan flujos de trabajo estándar para la ejemplificación.

Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Vínculo
Introducción al vídeo Modernización de la integración empresarial con Azure Integration Services
Introducción al vídeo Integración de la inteligencia artificial en los flujos de trabajo con Azure Logic Apps
Introducción al vídeo Aceleración del desarrollo de inteligencia artificial generativa con Azure Logic Apps: integración de 2024

Preparación del contenido

Las siguientes acciones y conectores integrados le ayudan a preparar el contenido para su consumo por parte de los servicios de inteligencia artificial, la ingesta de datos y las interacciones de chat.

Nombre Capacidades
Parsear un documento Esta acción integrada convierte el contenido en una salida de cadena con token, por lo que un flujo de trabajo puede leer y analizar miles de documentos con tipos de archivo como PDF, DOCX, CSV, PPT, HTML y otros en varios lenguajes.

Esta acción le ayuda a preparar el contenido para su consumo por parte de los servicios de Azure AI en los flujos de trabajo. Por ejemplo, las operaciones de conector para servicios de Azure AI, como Azure OpenAI y Azure AI Search , normalmente esperan entrada con tokenización y solo pueden controlar un número limitado de tokens.
Trozo de texto Esta acción integrada divide una cadena con token en partes para facilitar el consumo mediante acciones posteriores en el mismo flujo de trabajo. Esta acción le ayuda a preparar el contenido para su consumo por parte de los servicios de Azure AI en los flujos de trabajo. Las operaciones del conector para los servicios de Azure AI, como Azure OpenAI y Azure AI Search , normalmente esperan una entrada tokenizada y solo pueden controlar un número limitado de tokens.
Azure OpenAI Este conector integrado proporciona operaciones para funcionalidades de inteligencia artificial, como la ingesta de datos, la generación de incrustaciones y la finalización del chat que son fundamentales para crear aplicaciones de INTELIGENCIA ARTIFICIAL sofisticadas. Puede integrar las funcionalidades de procesamiento de lenguaje natural en Azure OpenAI con las funcionalidades de búsqueda inteligente en Azure AI Search y otros conectores. Estas integraciones le ayudan a acceder y trabajar con almacenes de vectores sin necesidad de escribir código.

Indexación de datos y bases de datos vectoriales

Los conectores siguientes proporcionan operaciones para la indexación y recuperación de datos cuando se trabaja con bases de datos vectoriales, búsqueda y bases de datos estándar.

Nombre Capacidades
Azure AI Search Este conector integrado proporciona operaciones para funcionalidades de inteligencia artificial, como mejorar la recuperación de datos con indexación, operaciones vectoriales avanzadas y operaciones de búsqueda híbrida.
SQL Server Este conector integrado proporciona operaciones para trabajar con filas, tablas y procedimientos almacenados en bases de datos SQL.
Azure Cosmos DB Este conector administrado proporciona operaciones para trabajar con documentos y procedimientos almacenados en bases de datos distribuidas globalmente, elásticas, escalables de forma independiente y multimodelo.

Nota: Este servicio se denominaba anteriormente Azure DocumentDB.

Más recursos

Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Release Vínculo
Documentación Varios Analizar o dividir en partes el contenido para flujos de trabajo estándar en Azure Logic Apps
Documentación Varios Conexión a servicios de Azure AI desde flujos de trabajo estándar en Azure Logic Apps
Documentación Varios Referencia de operaciones integradas de Azure OpenAI
Documentación Varios Referencia de operaciones integradas de Azure AI Search
Documentación Varios Conexión a SQL Database desde flujos de trabajo en Azure Logic Apps
Documentación Varios Referencia de operaciones integradas de SQL Server
Documentación Varios Procesamiento y creación de documentos en Azure Cosmos DB con Azure Logic Apps
Documentación Varios Referencia del conector de Azure Cosmos DB
Artículo de blog Disponibilidad general Los conectores de Azure OpenAI y Azure AI Search ahora están disponibles con carácter general para Azure Logic Apps (estándar)
Artículo de blog Disponibilidad general Automatizar la indexación RAG: Azure Logic Apps & AI Search para el procesamiento de documentos de origen
Artículo de blog Versión preliminar pública Los conectores de Azure OpenAI y Azure AI Search se encuentran en versión preliminar pública para Azure Logic Apps (estándar)
Vídeo de demostración Disponibilidad general Creación de una aplicación de inteligencia artificial basada en RAG de un extremo a otro con Azure Logic Apps (estándar)
Vídeo de demostración Versión preliminar pública Ingesta de datos de documentos en Azure AI Search y chatear con datos mediante Azure Logic Apps
Ejemplo de GitHub Disponibilidad general Creación de un chat con los datos (RAG): proyecto de Azure Logic Apps
Ejemplo de GitHub Versión preliminar pública Creación de un chat con los datos: proyecto de Azure Logic Apps

Chat casi en tiempo real con datos

En las secciones siguientes se describen las formas en que puede configurar funcionalidades de chat casi en tiempo real para los datos mediante Azure Logic Apps y varios servicios de IA.

Creación de asistentes de Azure OpenAI con Azure Logic Apps

Con Azure OpenAI, puede crear fácilmente características similares al agente en las aplicaciones mediante la API Assistants. Aunque la capacidad de compilar agentes existía anteriormente, el proceso a menudo requería una ingeniería significativa, bibliotecas externas y varias integraciones.

Con asistentes, ahora puede crear rápidamente copilotos con estado personalizados entrenados en sus datos empresariales y puede controlar diversas tareas mediante los modelos, herramientas y conocimientos más recientes del transformador generativo preentrenado (GPT). La versión actual incluye características como las herramientas Búsqueda de archivos y Examinar, características de seguridad de datos mejoradas, controles mejorados, nuevos modelos y compatibilidad ampliada con regiones. Estas mejoras facilitan la transición de la creación de prototipos a la producción.

Ahora puede compilar asistentes mediante una llamada a flujos de trabajo de Azure Logic Apps como funciones de IA. Puede detectar, importar e invocar flujos de trabajo en Azure OpenAI Studio desde el área de juegos de Azure OpenAI Assistants sin escribir ningún código. El área de juegos Assistants enumera y enumera todos los flujos de trabajo de la suscripción que son aptos para llamar a funciones.

Para probar Assistants con llamadas a funciones, puede importar flujos de trabajo como funciones de IA mediante una experiencia de exploración y selección. La generación de especificaciones de función y otras configuraciones se extraen automáticamente de Swagger para el flujo de trabajo. La llamada a funciones invoca flujos de trabajo en función de las solicitudes del usuario. Todos los parámetros apropiados se transmiten según la definición.

Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Vínculo
Documentación Llamar a flujos de trabajo de Azure Logic Apps como funciones mediante Azure OpenAI Assistants
Artículo de blog Creación de asistentes de Azure OpenAI con llamadas a funciones
Artículo de blog Asistentes de Azure AI con Azure Logic Apps
Vídeo de demostración Azure Logic Apps como complemento de IA

Integración con Kernel semántico

Este kit de desarrollo ligero y de código abierto ayuda a crear fácilmente agentes de IA e integrar los modelos de IA más recientes en el código base de C#, Python o Java. En el nivel más sencillo, el kernel es un contenedor de inserción de dependencias que administra todos los servicios y complementos que la aplicación de IA necesita ejecutar.

Si proporciona todos los servicios y complementos al kernel, la IA usa sin problemas estos componentes según sea necesario. Como componente central, el kernel actúa como un middleware eficaz que le ayuda a ofrecer rápidamente soluciones de nivel empresarial.

Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Vínculo
Artículo de blog Integración de flujos de trabajo de aplicaciones lógicas estándar como complementos con kernel semántico: Guía paso a paso
Ejemplo de GitHub Kernel semántico para Azure Logic Apps
Documentación Introducción al kernel semántico

Administrar la recopilación y el procesamiento de documentos inteligentes

Puede usar Azure AI Document Intelligence y Azure Logic Apps para crear flujos de trabajo inteligentes de procesamiento de documentos. El conector de Document Intelligence proporciona operaciones que le ayudan a extraer texto e información de varios documentos. La inteligencia de documentos le ayuda a administrar la velocidad de recopilación y procesamiento de grandes cantidades de datos almacenados en formularios y documentos con una amplia variedad de tipos de datos.

Nota:

El conector de Document Intelligence actualmente se denomina Form Recognizer en la galería de conectores del diseñador de flujos de trabajo para Azure Logic Apps. Puede encontrar las operaciones del conector, que se hospedan y ejecutan en Azure multiinquilino, bajo la etiqueta Compartido de la galería.

Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Vínculo
Documentación Creación de un flujo de trabajo de Document Intelligence con Azure Logic Apps
Documentación Referencia del conector de Form Recognizer
Vídeo de demostración Procesamiento de facturas con Azure Logic Apps e IA

Generación aumentada de recuperación (RAG)

Los modelos de INTELIGENCIA artificial generativa o llms como ChatGPT se entrenan para generar resultados para tareas como responder preguntas y completar oraciones mediante grandes volúmenes de datos estáticos y miles de millones de parámetros. La generación aumentada de recuperación agrega funcionalidades de recuperación de información a un LLM y modifica sus interacciones para que pueda responder a las consultas de usuario haciendo referencia al contenido que aumenta sus datos de entrenamiento.

Un LLM puede usar RAG para permitir que los bots de chat accedan a información específica o actualizada del dominio. RAG puede ayudarle a implementar casos de uso que incorporen datos internos de la empresa o información fáctica proporcionada por una fuente autoritativa.

RAG amplía las funcionalidades ya eficaces de un LLM a dominios específicos o a la base de conocimiento interna de una organización sin tener que volver a entrenar el modelo. La arquitectura RAG también proporciona un enfoque rentable para mejorar y mantener la salida del LLM precisa, relevante y útil.

Ejemplos de RAG

En los ejemplos siguientes se muestran formas de aplicar o implementar el patrón RAG mediante flujos de trabajo Estándar en Azure Logic Apps.

Crear una aplicación de IA basada en RAG de un extremo a otro con Azure Logic Apps

Creación de una aplicación de inteligencia artificial basada en RAG de un extremo a otro con Azure Logic Apps (estándar)

Chatear con datos de seguros

En este ejemplo se usa un patrón RAG clásico en el que un flujo de trabajo ingiere los documentos y los datos de una compañía de seguros para que los empleados puedan formular preguntas sobre sus beneficios y opciones para la cobertura del plan. Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Vínculo
Artículo de blog Los conectores de Azure OpenAI y Azure AI Search se encuentran en versión preliminar pública para Azure Logic Apps (estándar)
Vídeo de demostración Incorporar datos de documentos en el servicio Azure AI Search y comunicarte con los datos mediante Azure Logic Apps
Ejemplo de GitHub Creación de un chat con los datos: proyecto de aplicación lógica estándar

Automatización de respuestas a preguntas de StackOverflow

En este ejemplo se muestra cómo un flujo de trabajo puede responder automáticamente a las nuevas preguntas de StackOverflow que tienen un hashtag específico mediante los conectores de Azure OpenAI y Azure AI Search . El ejemplo puede ingerir entradas anteriores y documentación del producto. Cuando hay disponible una nueva pregunta, la solución puede responder automáticamente mediante la base de conocimiento y, a continuación, pedir a un usuario que apruebe la respuesta antes de publicarla en StackOverflow.

Puede personalizar este flujo de trabajo para desencadenar el soporte técnico diario, semanal o mensual y simplificar el soporte técnico de la comunidad mediante la configuración de su propio sistema de respuesta automatizado para cualquier hashtag. También puede adaptar esta solución para vales en Outlook, ServiceNow u otras plataformas mediante conectores de Azure Logic Apps para el acceso seguro.

Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Vínculo
Artículo de blog Automatización de respuestas a consultas de StackOverflow mediante Azure OpenAI y Azure Logic Apps
Ejemplo de GitHub Automatización de respuestas a preguntas de StackOverflow sin respuesta

Ingesta de documentos y chat con datos

Los datos son la piedra angular de cualquier aplicación de inteligencia artificial y son únicos para cada organización. Al compilar una aplicación de inteligencia artificial, la ingesta eficaz de datos es fundamental para el éxito. Independientemente de dónde residan los datos, puede integrar la inteligencia artificial en procesos empresariales nuevos y existentes mediante la creación de flujos de trabajo estándar que usan poco o ningún código.

Más de 1400 conectores y operaciones empresariales permiten usar Azure Logic Apps para acceder y realizar tareas rápidamente con una amplia gama de servicios, sistemas, aplicaciones y bases de datos. Cuando se usan estos conectores con servicios de inteligencia artificial como Azure OpenAI y Azure AI Search, la organización puede transformar cargas de trabajo como las siguientes:

  • Automatizar tareas rutinarias.
  • Mejore las interacciones de los clientes con las funcionalidades de chat.
  • Proporcione acceso a los datos de la organización cuando sea necesario.
  • Genere información inteligente o respuestas.

Por ejemplo, al integrar los servicios de inteligencia artificial mediante las operaciones del conector azure OpenAI y Azure AI Search en los flujos de trabajo, su organización puede implementar sin problemas el patrón RAG. RAG minimiza el costo mediante el uso de un sistema de recuperación de información para hacer referencia a conocimientos específicos del dominio o autoritativos y aumentar el entrenamiento de un LLM sin tener que volver a entrenar el modelo. Para obtener más información, consulte Generación aumentada por recuperación (RAG) y los siguientes recursos:

Tipo de recurso Vínculo
Artículo de blog Ingesta de documentos para aplicaciones de IA generativas de más de 1000 orígenes de datos mediante Azure Logic Apps
Vídeo de demostración Ingesta de documentos basados en RAG mediante Azure Logic Apps (estándar)

Inicio rápido con plantillas de flujo de trabajo

Para admitir la integración de inteligencia artificial y ayudarle a compilar rápidamente las aplicaciones, Azure Logic Apps incluye plantillas de flujo de trabajo precompiladas que ingieren datos de muchos orígenes de datos comunes, como SharePoint, Azure File Storage, Blob Storage y Protocolo de transferencia de archivos seguros (SFTP). Al agregar un nuevo flujo de trabajo a su aplicación lógica Estándar o de Consumo, puede seleccionar una plantilla prediseñada como punto de partida.

Cada plantilla sigue un patrón de flujo de trabajo común que admite un escenario específico. También puede crear plantillas de flujo de trabajo que puede compartir con otros desarrolladores de flujo de trabajo publicándolas en el repositorio de plantillas de GitHub.

En la tabla siguiente se describen algunas plantillas de flijo de trabajo de ejemplo:

Origen del documento Descripción de la plantilla Servicios de inteligencia artificial usados
Inteligencia de documentos de Azure AI Estándar: analice documentos complejos mediante Azure OpenAI. Azure OpenAI
Azure Blob Storage (Servicio de almacenamiento de blobs de Azure) Estándar:
- Ingesta y indexación de archivos mediante el patrón RAG.
- Ingesta y vectorización de documentos en Azure Cosmos DB para NoSQL mediante el patrón RAG.
- Azure OpenAI
- Búsqueda de Azure AI
Azure File Storage Estándar:
- Ingesta de documentos en AI Search según una programación.
- Ingesta y indexación de archivos según una programación mediante el patrón RAG.
- Ingesta y indexación de archivos mediante el patrón RAG.
- Azure OpenAI
- Búsqueda de Azure AI
Basado en solicitudes Estándar:
- Interactuar con tus documentos usando el patrón RAG.
- Ingesta e indexación de documentos mediante el patrón RAG.
- Azure OpenAI
- Búsqueda de Azure AI
OneDrive para la Empresa Consumo:
- Convierte en vectores los archivos de OneDrive for Business para la búsqueda de IA de manera programada.

Estándar:
- Ingesta y indexación de archivos mediante el patrón RAG.
- Ingerir documentos de OneDrive a la búsqueda de IA según una programación.
- Azure OpenAI
- Búsqueda de Azure AI
SAP Consumo:
- Sincronizar asociados empresariales con la carpeta de SharePoint mediante OData.
SFTP Estándar: ingesta y indexación de archivos mediante el patrón RAG. - Azure OpenAI
- Búsqueda de Azure AI
SharePoint Online Consumo:
- Vectorice los archivos de SharePoint Online a la búsqueda de IA a petición.

Estándar:
- Ingesta y indexación de archivos mediante el patrón RAG.
- Indexar documentos a AI Search. Recupere y razone con los LLM de Azure OpenAI mediante el patrón RAG.
- Azure OpenAI
- Búsqueda de Azure AI

Para obtener más información, consulte los siguientes recursos:

Tipo de recurso Vínculo
Artículo de blog Las plantillas para Azure Logic Apps Standard ahora están en versión preliminar pública
Vídeo de demostración Plantillas de flujo de trabajo estándar para Azure Logic Apps
Documentación Creación de un flujo de trabajo estándar en Azure Logic Apps de un solo inquilino
Documentación Creación y publicación de plantillas de flujo de trabajo para Azure Logic Apps
Documentación Analizar o dividir en partes el contenido para flujos de trabajo estándar en Azure Logic Apps
Documentación Conexión a servicios de Azure AI desde flujos de trabajo estándar en Azure Logic Apps