Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Estas preguntas frecuentes (FAQ) describen el impacto de la IA del generador de avisos.
¿Qué son las indicaciones?
La función de avisos en el generador de avisos ofrece a los usuarios una capacidad versátil para desarrollar flujos de trabajo, aplicaciones, transformación de datos y personalización de copilotos impulsados por IA. Permite la creación de flujos de trabajo y aplicaciones que resumen documentos, crean borradores de respuestas, clasifican texto y traducen idiomas. Esta capacidad está impulsada por Azure OpenAI Service, que utiliza la tecnología Generative Pre-trained Transformer (GPT). Estos modelos se entrenaron con grandes cantidades de datos de texto, lo que les permitió generar texto que se asemeja al contenido escrito por humanos.
Para obtener más información, consulte la Nota sobre transparencia para Azure OpenAI Service
¿Cuáles son los casos de uso previstos para las indicaciones?
Las indicaciones en el generador de indicaciones le permiten crear aplicaciones inteligentes, flujos de trabajo y ampliar copilotos. Aprovechan las capacidades de los modelos de GPT preentrenados, lo que elimina la necesidad de entrenar el modelo personalizado. Por ejemplo, la intención podría ser crear un flujo de trabajo que resuma las quejas entrantes de los clientes. Luego, crea un ticket en una herramienta de gestión de incidentes según la categoría de la queja entrante. En este ejemplo, los creadores pueden indicar al modelo que clasifique y resuma la queja entrante para crear un nuevo incidente.
La siguiente lista contiene los casos de uso más populares de este servicio:
- Resumen de correos electrónicos, conversaciones, transcripciones, documentos y más.
- Sugerencias de borradores de respuestas a consultas de clientes, quejas, correo electrónico y más.
- Extracción de información de contratos, correos electrónicos, facturas, pedidos y más.
- Clasificación del contenido en las categorías deseadas (por ejemplo, si un correo electrónico es un pedido, una queja o una devolución).
- Análisis de sentimiento de un texto dado (por ejemplo, identificación del sentimiento de una reseña de producto).
En todos estos casos, los usuarios son responsables del resultado final del sistema. Deben revisar el contenido generado para detectar posibles imprecisiones o falta de integridad antes de usarlo.
¿Cómo se evaluó la disponibilidad de la función de indicaciones? ¿Qué métricas se usan para medir el rendimiento?
La evaluación de esta característica implica la realización de pruebas exhaustivas en una serie de parámetros de seguridad. Estas pruebas garantizan que la característica se alinee con los estándares y principios de IA responsable de nuestra organización. El servicio también se evalúa continuamente para detectar posibles vulnerabilidades. Las métricas de rendimiento que usamos implican principalmente la eficacia del filtrado de contenidos y el grado de acuerdo entre el ser humano y la máquina sobre el contenido filtrado frente al no filtrado.
¿Qué tipo de moderación de contenido se implementa para las indicaciones?
Los modelos GPT se entrenan con datos de Internet, lo cual es excelente para construir un modelo mundial general. Al mismo tiempo, puede heredar contenido tóxico, dañino y sesgado de las mismas fuentes. Los modelos están capacitados para comportarse de manera segura y no producir contenido dañino, pero a veces puede generar resultados tóxicos. Los avisos del generador de avisos aprovechan el servicio Azure AI Content Satefy para hornear funcionalidades de moderación de contenido de vanguardia dentro de los mensajes de IA. Esto incluye servicios para analizar la salida generada con escáneres de texto de gravedad múltiple y seguridad contra ataques de inyección rápida. La salida también se escanea en busca de regurgitación de material protegido.
¿Cuáles son las limitaciones de la característica de indicaciones? ¿Cómo pueden los usuarios minimizar el impacto de las limitaciones de las indicaciones cuando usan el sistema?
El uso de esta tecnología debe ajustarse a los requisitos del Código de conducta de Azure OpenAI Service. Esta tecnología no debe usarse para generar contenidos asociados a propaganda política, incitación al odio, desinformación, autolesiones, discriminación, material sexual explícito u otros contenidos prohibidos por el Código de conducta. Entre las aplicaciones no admitidas de esta tecnología se incluyen la prestación de asesoramiento, el uso para orientación legal, financiera, relacionada con la salud o predicciones futuras, así como cálculos financieros, científicos o matemáticos, y cualquier otro uso no admitido mencionado en la nota sobre transparencia de Azure OpenAI Service.
Los contenidos generados por IA pueden tener errores, por lo que los fabricantes deben informar a los usuarios finales de su solución de que la generación de contenidos por este modelo está creada por IA de forma transparente. La comunicación clara del contenido generado ayuda a evitar la dependencia excesiva. Los creadores también deben infundir la posibilidad de un paso de revisión manual para asegurarse de que el contenido generado por la IA es preciso y apropiado antes de usarlo.
¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable del sistema?
El contenido generado por el modelo de IA es de naturaleza probabilística, por lo que las respuestas del modelo podrían variar para una misma pregunta. La respuesta generada podría ser incorrecta o engañosa y podría provocar resultados no deseados del flujo o la aplicación. Por ejemplo, los clientes empresariales podrían recibir información, recomendaciones o soporte erróneos o incorrectos. Los creadores deben implementar una supervisión humana significativa en sus flujos y aplicaciones, y probar sus indicaciones para detectar el potencial de generar comportamientos dañinos o contenido prohibido, tal como se indica en el Código de conducta de Microsoft. Los desarrolladores con poco código también deben ser transparentes sobre el uso de la IA en sus aplicaciones y flujos para informar al usuario empresarial, indicando que el contenido está generado por la IA. Además, es posible que las respuestas generadas no se ajusten a las expectativas del desarrollador con poco código debido a restricciones de longitud, filtrado de contenidos o selección de modelos.
¿Cómo se llama el modelo GPT, dónde está alojado y cómo puedo acceder a él?
Prompt Builder admite los modelos GPT 4.1 mini, GPT 4.o, GPT 4.1 y o3, que se hospedan en Azure OpenAI Service. Puede tener acceso a estos modelos a través de las indicaciones de Power Platform, en las aplicaciones, los flujos y los copilotos.
Obtenga más información en Novedades de Azure OpenAI Service
¿Se utilizan mis datos para entrenar o mejorar los modelos de lenguaje de gran tamaño disponibles en el generador de avisos?
Los mensajes del generador de mensajes se ejecutan en Azure OpenAI Service hospedado por Microsoft. Los datos de clientes no se usan para entrenar o mejorar ninguno de los modelos básicos de Azure OpenAI Service. Microsoft no comparte los datos de sus clientes con terceros a menos que usted haya otorgado permiso para hacerlo. Ni las solicitudes del cliente (entrada) con sus datos de apoyo ni las respuestas del modelo (salida) se usan para entrenar o mejorar los modelos básicos de Azure OpenAI Service.
¿El contenido agregado a la acción 'Ejecutar una indicación' es accesible públicamente?
La pestaña Acerca de para la acción dice: Esta acción proporciona acceso a sus mensajes aprovechando el modelo GPT que se ejecuta en Azure OpenAI Service.
Las indicaciones que agrega a la acción Ejecutar una indicación en Power Automate son privadas de manera predeterminada. Solo son visibles y utilizables dentro de su organización, no accesibles para el mundo. Las indicaciones son privadas y están destinadas al uso interno de su empresa.
Las preguntas recién creadas son privadas de forma predeterminada. Esto significa que son visibles y utilizables en Power Automate, Power Apps y Microsoft Copilot Studio solo por la persona que las creó. Esto permite al fabricante disponer del tiempo necesario para probarlas y evaluarlas en aplicaciones o flujos de trabajo y garantizar su exactitud antes de compartirlas.
Si desea que otros usuarios del entorno o grupos usen su indicación en Power Apps o Power Automate, deberá compartirla.
Obtenga más información en Compartir su solicitud.
¿Cómo se procesan las imágenes de personas en las indicaciones del generador de avisos?
El generador de avisos no está diseñado para identificar a las personas en función de los rasgos faciales o los datos biométricos. Cuando envía imágenes que contienen personas en el generador de avisos, el sistema aplica automáticamente una función de desenfoque facial antes de analizar las imágenes para proteger la privacidad individual. Este paso de difuminado ayuda a abordar los problemas de privacidad al evitar la identificación basada en los rasgos faciales. Con el desenfoque, no interviene el reconocimiento facial ni la coincidencia de plantillas faciales. En cambio, cualquier identificación de personas conocidas se basa en señales contextuales, como uniformes o escenarios únicos, no en sus rostros. Esta medida de privacidad no debería afectar a la calidad de los resultados que recibe. El difuminado de rostros podría ser ocasionalmente mencionado en las respuestas del sistema.
Obtén más información en Desenfoque facial.
Posibles daños al usar imágenes o documentos en indicaciones
El generador de avisos mitiga la mayoría de los riesgos involucrados al usar imágenes o documentos en mensajes, pero algunos riesgos aún requieren cuidado adicional por parte del creador del aviso:
- Las imágenes o documentos pueden contener texto o elementos visuales dañinos que podrían afectar sus procesos posteriores.
- Las imágenes o documentos pueden incluir instrucciones especiales y posiblemente ocultas que podrían comprometer o anular la instrucción inicial.
- Las imágenes o documentos pueden contener instrucciones que podrían dar lugar a la generación de contenido protegido por propiedad intelectual (PI).
- Las indicaciones pueden producir comentarios sesgados en imágenes o documentos.
- Extraer información de imágenes o documentos de baja calidad puede provocar interpretaciones erróneas.
¿En qué se diferencia el modelo o3 de los modelos GPT?
El modelo o3 se destaca de los modelos GPT principalmente por sus avanzadas capacidades de razonamiento. Genera cadenas internas detalladas de pensamiento antes de responder, lo que lleva a un mejor rendimiento en matemáticas, codificación y tareas analíticas. Sin embargo, este enfoque resulta en mayores requisitos computacionales y tiempos de respuesta más lentos en comparación con los modelos GPT. GPT-4o o GPT-4.1, por ejemplo, destaca en tareas lingüísticas generales y ofrece respuestas más rápidas y rentables, lo que lo hace adecuado para aplicaciones en las que es esencial obtener resultados rápidos.
¿Qué son las indicaciones y las funciones de IA?
Mensajes
Las indicaciones dan a los creadores la libertad de instruir al modelo de lenguaje grande (LLM) para que se comporte de cierta manera o para que realice una tarea específica. Al elaborar cuidadosamente un mensaje, puede generar respuestas que se adapten a sus necesidades comerciales específicas. Esto transforma el modelo LLM en una herramienta flexible para realizar diversas tareas.
Por ejemplo, con un modelo de lenguaje, un mensaje puede guiar al modelo para responder a una pregunta, completar texto, traducir idiomas, resumir un documento e identificar tareas, tareas pendientes y elementos de acción en el texto. La complejidad de un mensaje personalizado puede variar desde una sola oración hasta algo más complejo, según la tarea.
Funciones de IA
Las funciones de IA son indicaciones preconfiguradas creadas por el equipo de Microsoft para ayudar a los creadores a realizar tareas comunes fácilmente. Ofrecen capacidades de IA listas para usar en varios casos de uso, lo que simplifica la experiencia del fabricante para infundir inteligencia en sus soluciones.
Por ejemplo, el indicador precompilado de un modelo de lenguaje podría verse así:
Extraiga como una lista numerada los puntos de acción de: [TextToExtract]
En este caso, el usuario sólo necesita proporcionar el texto en [TextToExtract] del que desea extraer puntos de acción. El mensaje prediseñado se encarga del resto.