Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Se aplica a: Azure Logic Apps (Consumo + Estándar)
Las funcionalidades de inteligencia artificial desempeñan un papel rápido y creciente en aplicaciones y otro software mediante la realización de tareas útiles, de ahorro de tiempo o nuevas, como interacciones de chat. Estas funcionalidades también pueden trabajar con otros servicios, sistemas, aplicaciones y orígenes de datos para ayudar a crear cargas de trabajo de integración para empresas y organizaciones.
En esta guía se proporcionan bloques de creación, ejemplos y otros recursos que muestran cómo usar servicios de inteligencia artificial como Azure OpenAI, Azure AI Foundry y Azure AI Search con Azure Logic Apps para crear flujos de trabajo automatizados para soluciones de integración de IA.
Agentes de IA y flujos de trabajo con tecnología de modelos (versión preliminar)
Azure Logic Apps admite flujos de trabajo de aplicaciones lógicas estándar que completan tareas mediante agentes con modelos de lenguaje grandes (LLM). Un agente usa un proceso en bucle iterativo para resolver problemas complejos y de varios pasos. Un LLM es un programa entrenado que reconoce patrones y realiza trabajos sin interacción humana.
Por ejemplo, un LLM puede realizar las siguientes tareas:
- Analice, interprete y razone sobre información como instrucciones, indicaciones y entradas.
- Tome decisiones basadas en los resultados y los datos disponibles.
- Formule y devuelva respuestas al solicitante en función de las instrucciones del agente.
Después de crear una aplicación lógica estándar, puede agregar un flujo de trabajo que use el tipo de flujo de trabajo Agentes autónomos o Agentes de conversación . Estos tipos de flujo de trabajo crean un flujo de trabajo parcial que incluye una acción de agente vacía. En función del tipo de flujo de trabajo seleccionado, puede configurar el agente para que funcione sin interacción humana o sin interacción humana, lo que sucede a través de una interfaz de chat integrada.
Sugerencia
Si decide empezar con un flujo de trabajo sin agente Stateful, siempre puede agregar una acción Agente más adelante.
El agente usa lenguaje natural y LLM conectado para interpretar instrucciones proporcionadas anteriormente o interacciones humanas en tiempo real, respectivamente. El agente también usa salidas generadas por modelos para realizar el trabajo. El modelo ayuda al agente a proporcionar las siguientes funcionalidades:
- Acepte información sobre el rol del agente, cómo operar y cómo responder.
- Recibir y responder a instrucciones y solicitudes urgentes.
- Procesar entradas, analizar datos y tomar decisiones basadas en la información disponible.
- Elija herramientas para completar las tareas necesarias para satisfacer las solicitudes. En escenarios de IA, una herramienta es una secuencia con una o más acciones que completan una tarea.
- Adaptarse a entornos que requieren flexibilidad y son fluidos, dinámicos, impredecibles o inestables.
Con más de 1400 conectores disponibles para ayudarle a crear herramientas para que los agentes los usen, los flujos de trabajo del agente admiten muchos escenarios que se benefician enormemente de las funcionalidades del agente y del modelo.
Para obtener más información, consulte los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Documentación | Flujos de trabajo con agentes y modelos de IA en Azure Logic Apps |
| Documentación | Creación de flujos de trabajo de agente autónomo en Azure Logic Apps |
| Documentación | Creación de flujos de trabajo de agente conversacional en Azure Logic Apps |
| Laboratorio | Creación del primer flujo de trabajo de agente autónomo en Azure Logic Apps |
| Laboratorio | Creación del primer flujo de trabajo del agente conversacional en Azure Logic Apps |
| Artículo de blog | Introducción a la era de la automatización de procesos empresariales multiagente |
| Demostración de vídeo | Orientado al código y declarativo con múltiples agentes |
Bloques de creación para soluciones de IA
En esta sección se describen las operaciones integradas y los vínculos a la documentación que le ayudan a crear flujos de trabajo estándar para escenarios de integración de IA, como la ingesta de documentos. Estas operaciones permiten a los clientes "chatear con los datos".
Por ejemplo, los conectores de Azure OpenAI y Azure AI Search proporcionan operaciones que simplifican los procesos de back-end con la configuración sin código. Estas operaciones no requieren ningún código, lógica ni configuración personalizados para poder usarse.
Este enfoque sin código reduce la complejidad en torno a la integración de funcionalidades de inteligencia artificial en los flujos de trabajo. Puede automatizar flujos de trabajo complejos para tareas como análisis de documentos, fragmentación de datos o modelos de inteligencia artificial para desbloquear el potencial completo de los datos con un esfuerzo mínimo.
Los bloques de creación de inteligencia artificial, como las operaciones integradas y los conectores, están disponibles para flujos de trabajo Consumo y Estándar. Los ejemplos, muestras y recursos utilizan flujos de trabajo estándar para la ejemplificación.
Para obtener más información, consulte los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Introducción al vídeo | Modernización de la integración empresarial con Azure Integration Services |
| Introducción al vídeo | Integración de la inteligencia artificial en los flujos de trabajo con Azure Logic Apps |
| Introducción al vídeo | Aceleración del desarrollo de inteligencia artificial generativa con Azure Logic Apps: integración de 2024 |
Preparación del contenido
Las siguientes acciones y conectores integrados le ayudan a preparar el contenido para su consumo por parte de los servicios de inteligencia artificial, la ingesta de datos y las interacciones de chat.
| Nombre | Capacidades |
|---|---|
| Parsear un documento | Esta acción integrada convierte el contenido en una salida de cadena con token, por lo que un flujo de trabajo puede leer y analizar miles de documentos con tipos de archivo como PDF, DOCX, CSV, PPT, HTML y otros en varios lenguajes. Esta acción le ayuda a preparar el contenido para su consumo por parte de los servicios de Azure AI en los flujos de trabajo. Por ejemplo, las operaciones de conector para servicios de Azure AI, como Azure OpenAI y Azure AI Search , normalmente esperan entrada con tokenización y solo pueden controlar un número limitado de tokens. |
| Trozo de texto | Esta acción integrada divide una cadena con token en partes para facilitar el consumo mediante acciones posteriores en el mismo flujo de trabajo. Esta acción le ayuda a preparar el contenido para su consumo por parte de los servicios de Azure AI en los flujos de trabajo. Las operaciones del conector para los servicios de Azure AI, como Azure OpenAI y Azure AI Search , normalmente esperan una entrada tokenizada y solo pueden controlar un número limitado de tokens. |
| Azure OpenAI | Este conector integrado proporciona operaciones para funcionalidades de inteligencia artificial, como la ingesta de datos, la generación de incrustaciones y la finalización del chat que son fundamentales para crear aplicaciones de INTELIGENCIA ARTIFICIAL sofisticadas. Puede integrar las funcionalidades de procesamiento de lenguaje natural en Azure OpenAI con las funcionalidades de búsqueda inteligente en Azure AI Search y otros conectores. Estas integraciones le ayudan a acceder y trabajar con almacenes de vectores sin necesidad de escribir código. |
Indexación de datos y bases de datos vectoriales
Los conectores siguientes proporcionan operaciones para la indexación y recuperación de datos cuando se trabaja con bases de datos vectoriales, búsqueda y bases de datos estándar.
| Nombre | Capacidades |
|---|---|
| Azure AI Search | Este conector integrado proporciona operaciones para funcionalidades de inteligencia artificial, como mejorar la recuperación de datos con indexación, operaciones vectoriales avanzadas y operaciones de búsqueda híbrida. |
| SQL Server | Este conector integrado proporciona operaciones para trabajar con filas, tablas y procedimientos almacenados en bases de datos SQL. |
| Azure Cosmos DB | Este conector administrado proporciona operaciones para trabajar con documentos y procedimientos almacenados en bases de datos distribuidas globalmente, elásticas, escalables de forma independiente y multimodelo. Nota: Este servicio se denominaba anteriormente Azure DocumentDB. |
Más recursos
Para obtener más información, consulte los siguientes recursos:
Chat casi en tiempo real con datos
En las secciones siguientes se describen las formas en que puede configurar funcionalidades de chat casi en tiempo real para los datos mediante Azure Logic Apps y varios servicios de IA.
Creación de asistentes de Azure OpenAI con Azure Logic Apps
Con Azure OpenAI, puede crear fácilmente características similares al agente en las aplicaciones mediante la API Assistants. Aunque la capacidad de compilar agentes existía anteriormente, el proceso a menudo requería una ingeniería significativa, bibliotecas externas y varias integraciones.
Con asistentes, ahora puede crear rápidamente copilotos con estado personalizados entrenados en sus datos empresariales y puede controlar diversas tareas mediante los modelos, herramientas y conocimientos más recientes del transformador generativo preentrenado (GPT). La versión actual incluye características como las herramientas Búsqueda de archivos y Examinar, características de seguridad de datos mejoradas, controles mejorados, nuevos modelos y compatibilidad ampliada con regiones. Estas mejoras facilitan la transición de la creación de prototipos a la producción.
Ahora puede compilar asistentes mediante una llamada a flujos de trabajo de Azure Logic Apps como funciones de IA. Puede detectar, importar e invocar flujos de trabajo en Azure OpenAI Studio desde el área de juegos de Azure OpenAI Assistants sin escribir ningún código. El área de juegos Assistants enumera y enumera todos los flujos de trabajo de la suscripción que son aptos para llamar a funciones.
Para probar Assistants con llamadas a funciones, puede importar flujos de trabajo como funciones de IA mediante una experiencia de exploración y selección. La generación de especificaciones de función y otras configuraciones se extraen automáticamente de Swagger para el flujo de trabajo. La llamada a funciones invoca flujos de trabajo en función de las solicitudes del usuario. Todos los parámetros apropiados se transmiten según la definición.
Para obtener más información, consulte los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Documentación | Llamar a flujos de trabajo de Azure Logic Apps como funciones mediante Azure OpenAI Assistants |
| Artículo de blog | Creación de asistentes de Azure OpenAI con llamadas a funciones |
| Artículo de blog | Asistentes de Azure AI con Azure Logic Apps |
| Vídeo de demostración | Azure Logic Apps como complemento de IA |
Integración con Kernel semántico
Este kit de desarrollo ligero y de código abierto ayuda a crear fácilmente agentes de IA e integrar los modelos de IA más recientes en el código base de C#, Python o Java. En el nivel más sencillo, el kernel es un contenedor de inserción de dependencias que administra todos los servicios y complementos que la aplicación de IA necesita ejecutar.
Si proporciona todos los servicios y complementos al kernel, la IA usa sin problemas estos componentes según sea necesario. Como componente central, el kernel actúa como un middleware eficaz que le ayuda a ofrecer rápidamente soluciones de nivel empresarial.
Para obtener más información, consulte los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Artículo de blog | Integración de flujos de trabajo de aplicaciones lógicas estándar como complementos con kernel semántico: Guía paso a paso |
| Ejemplo de GitHub | Kernel semántico para Azure Logic Apps |
| Documentación | Introducción al kernel semántico |
Administrar la recopilación y el procesamiento de documentos inteligentes
Puede usar Azure AI Document Intelligence y Azure Logic Apps para crear flujos de trabajo inteligentes de procesamiento de documentos. El conector de Document Intelligence proporciona operaciones que le ayudan a extraer texto e información de varios documentos. La inteligencia de documentos le ayuda a administrar la velocidad de recopilación y procesamiento de grandes cantidades de datos almacenados en formularios y documentos con una amplia variedad de tipos de datos.
Nota:
El conector de Document Intelligence actualmente se denomina Form Recognizer en la galería de conectores del diseñador de flujos de trabajo para Azure Logic Apps. Puede encontrar las operaciones del conector, que se hospedan y ejecutan en Azure multiinquilino, bajo la etiqueta Compartido de la galería.
Para obtener más información, consulte los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Documentación | Creación de un flujo de trabajo de Document Intelligence con Azure Logic Apps |
| Documentación | Referencia del conector de Form Recognizer |
| Vídeo de demostración | Procesamiento de facturas con Azure Logic Apps e IA |
Generación aumentada de recuperación (RAG)
Los modelos de INTELIGENCIA artificial generativa o llms como ChatGPT se entrenan para generar resultados para tareas como responder preguntas y completar oraciones mediante grandes volúmenes de datos estáticos y miles de millones de parámetros. La generación aumentada de recuperación agrega funcionalidades de recuperación de información a un LLM y modifica sus interacciones para que pueda responder a las consultas de usuario haciendo referencia al contenido que aumenta sus datos de entrenamiento.
Un LLM puede usar RAG para permitir que los bots de chat accedan a información específica o actualizada del dominio. RAG puede ayudarle a implementar casos de uso que incorporen datos internos de la empresa o información fáctica proporcionada por una fuente autoritativa.
RAG amplía las funcionalidades ya eficaces de un LLM a dominios específicos o a la base de conocimiento interna de una organización sin tener que volver a entrenar el modelo. La arquitectura RAG también proporciona un enfoque rentable para mejorar y mantener la salida del LLM precisa, relevante y útil.
Ejemplos de RAG
En los ejemplos siguientes se muestran formas de aplicar o implementar el patrón RAG mediante flujos de trabajo Estándar en Azure Logic Apps.
Crear una aplicación de IA basada en RAG de un extremo a otro con Azure Logic Apps
Chatear con datos de seguros
En este ejemplo se usa un patrón RAG clásico en el que un flujo de trabajo ingiere los documentos y los datos de una compañía de seguros para que los empleados puedan formular preguntas sobre sus beneficios y opciones para la cobertura del plan. Para obtener más información, consulte los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Artículo de blog | Los conectores de Azure OpenAI y Azure AI Search se encuentran en versión preliminar pública para Azure Logic Apps (estándar) |
| Vídeo de demostración | Incorporar datos de documentos en el servicio Azure AI Search y comunicarte con los datos mediante Azure Logic Apps |
| Ejemplo de GitHub | Creación de un chat con los datos: proyecto de aplicación lógica estándar |
Automatización de respuestas a preguntas de StackOverflow
En este ejemplo se muestra cómo un flujo de trabajo puede responder automáticamente a las nuevas preguntas de StackOverflow que tienen un hashtag específico mediante los conectores de Azure OpenAI y Azure AI Search . El ejemplo puede ingerir entradas anteriores y documentación del producto. Cuando hay disponible una nueva pregunta, la solución puede responder automáticamente mediante la base de conocimiento y, a continuación, pedir a un usuario que apruebe la respuesta antes de publicarla en StackOverflow.
Puede personalizar este flujo de trabajo para desencadenar el soporte técnico diario, semanal o mensual y simplificar el soporte técnico de la comunidad mediante la configuración de su propio sistema de respuesta automatizado para cualquier hashtag. También puede adaptar esta solución para vales en Outlook, ServiceNow u otras plataformas mediante conectores de Azure Logic Apps para el acceso seguro.
Para obtener más información, consulte los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Artículo de blog | Automatización de respuestas a consultas de StackOverflow mediante Azure OpenAI y Azure Logic Apps |
| Ejemplo de GitHub | Automatización de respuestas a preguntas de StackOverflow sin respuesta |
Ingesta de documentos y chat con datos
Los datos son la piedra angular de cualquier aplicación de inteligencia artificial y son únicos para cada organización. Al compilar una aplicación de inteligencia artificial, la ingesta eficaz de datos es fundamental para el éxito. Independientemente de dónde residan los datos, puede integrar la inteligencia artificial en procesos empresariales nuevos y existentes mediante la creación de flujos de trabajo estándar que usan poco o ningún código.
Más de 1400 conectores y operaciones empresariales permiten usar Azure Logic Apps para acceder y realizar tareas rápidamente con una amplia gama de servicios, sistemas, aplicaciones y bases de datos. Cuando se usan estos conectores con servicios de inteligencia artificial como Azure OpenAI y Azure AI Search, la organización puede transformar cargas de trabajo como las siguientes:
- Automatizar tareas rutinarias.
- Mejore las interacciones de los clientes con las funcionalidades de chat.
- Proporcione acceso a los datos de la organización cuando sea necesario.
- Genere información inteligente o respuestas.
Por ejemplo, al integrar los servicios de inteligencia artificial mediante las operaciones del conector azure OpenAI y Azure AI Search en los flujos de trabajo, su organización puede implementar sin problemas el patrón RAG. RAG minimiza el costo mediante el uso de un sistema de recuperación de información para hacer referencia a conocimientos específicos del dominio o autoritativos y aumentar el entrenamiento de un LLM sin tener que volver a entrenar el modelo. Para obtener más información, consulte Generación aumentada por recuperación (RAG) y los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Artículo de blog | Ingesta de documentos para aplicaciones de IA generativas de más de 1000 orígenes de datos mediante Azure Logic Apps |
| Vídeo de demostración | Ingesta de documentos basados en RAG mediante Azure Logic Apps (estándar) |
Inicio rápido con plantillas de flujo de trabajo
Para admitir la integración de inteligencia artificial y ayudarle a compilar rápidamente las aplicaciones, Azure Logic Apps incluye plantillas de flujo de trabajo precompiladas que ingieren datos de muchos orígenes de datos comunes, como SharePoint, Azure File Storage, Blob Storage y Protocolo de transferencia de archivos seguros (SFTP). Al agregar un nuevo flujo de trabajo a su aplicación lógica Estándar o de Consumo, puede seleccionar una plantilla prediseñada como punto de partida.
Cada plantilla sigue un patrón de flujo de trabajo común que admite un escenario específico. También puede crear plantillas de flujo de trabajo que puede compartir con otros desarrolladores de flujo de trabajo publicándolas en el repositorio de plantillas de GitHub.
En la tabla siguiente se describen algunas plantillas de flijo de trabajo de ejemplo:
| Origen del documento | Descripción de la plantilla | Servicios de inteligencia artificial usados |
|---|---|---|
| Inteligencia de documentos de Azure AI | Estándar: analice documentos complejos mediante Azure OpenAI. | Azure OpenAI |
| Azure Blob Storage (Servicio de almacenamiento de blobs de Azure) | Estándar: - Ingesta y indexación de archivos mediante el patrón RAG. - Ingesta y vectorización de documentos en Azure Cosmos DB para NoSQL mediante el patrón RAG. |
- Azure OpenAI - Búsqueda de Azure AI |
| Azure File Storage | Estándar: - Ingesta de documentos en AI Search según una programación. - Ingesta y indexación de archivos según una programación mediante el patrón RAG. - Ingesta y indexación de archivos mediante el patrón RAG. |
- Azure OpenAI - Búsqueda de Azure AI |
| Basado en solicitudes | Estándar: - Interactuar con tus documentos usando el patrón RAG. - Ingesta e indexación de documentos mediante el patrón RAG. |
- Azure OpenAI - Búsqueda de Azure AI |
| OneDrive para la Empresa | Consumo: - Convierte en vectores los archivos de OneDrive for Business para la búsqueda de IA de manera programada. Estándar: - Ingesta y indexación de archivos mediante el patrón RAG. - Ingerir documentos de OneDrive a la búsqueda de IA según una programación. |
- Azure OpenAI - Búsqueda de Azure AI |
| SAP | Consumo: - Sincronizar asociados empresariales con la carpeta de SharePoint mediante OData. |
|
| SFTP | Estándar: ingesta y indexación de archivos mediante el patrón RAG. | - Azure OpenAI - Búsqueda de Azure AI |
| SharePoint Online | Consumo: - Vectorice los archivos de SharePoint Online a la búsqueda de IA a petición. Estándar: - Ingesta y indexación de archivos mediante el patrón RAG. - Indexar documentos a AI Search. Recupere y razone con los LLM de Azure OpenAI mediante el patrón RAG. |
- Azure OpenAI - Búsqueda de Azure AI |
Para obtener más información, consulte los siguientes recursos:
| Tipo de recurso | Vínculo |
|---|---|
| Artículo de blog | Las plantillas para Azure Logic Apps Standard ahora están en versión preliminar pública |
| Vídeo de demostración | Plantillas de flujo de trabajo estándar para Azure Logic Apps |
| Documentación | Creación de un flujo de trabajo estándar en Azure Logic Apps de un solo inquilino |
| Documentación | Creación y publicación de plantillas de flujo de trabajo para Azure Logic Apps |
| Documentación | Analizar o dividir en partes el contenido para flujos de trabajo estándar en Azure Logic Apps |
| Documentación | Conexión a servicios de Azure AI desde flujos de trabajo estándar en Azure Logic Apps |