Compartir a través de


¿Qué es la inteligencia artificial responsable?

SE APLICA A:Extensión ML de la CLI de Azure v2 (actual)SDK de Python azure-ai-ml v2 (actual)

La inteligencia artificial responsable (IA responsable) es un enfoque para desarrollar, evaluar e implementar sistemas de inteligencia artificial de forma segura, ética y con confianza. Los sistemas de inteligencia artificial resultan de muchas decisiones tomadas por sus creadores. La inteligencia artificial responsable ayuda a guiar estas decisiones, desde la definición del propósito del sistema a la interacción del usuario, hacia resultados más beneficiosos y equitativos. Mantiene a las personas y sus objetivos en el centro del diseño y respeta valores como equidad, confiabilidad y transparencia.

Microsoft creó un estándar de inteligencia artificial responsable, un marco para crear sistemas de inteligencia artificial basados en seis principios: imparcialidad, confiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad. Estos principios son la base de un enfoque responsable y de confianza para la inteligencia artificial, especialmente a medida que la tecnología inteligente se vuelve más común en los productos y servicios cotidianos.

En este artículo se explica cómo Azure Machine Learning proporciona herramientas para ayudar a los desarrolladores y científicos de datos a implementar y poner en funcionamiento estos seis principios.

 Diagrama de los seis principios de la inteligencia artificial responsable de Microsoft que abarcan la equidad, la confiabilidad y la seguridad, la privacidad y la seguridad, la inclusión, la transparencia y la responsabilidad.

Equidad e inclusión

Los sistemas de inteligencia artificial deben tratar a todos de forma justa y evitar que afecten a grupos similares de forma diferente. Por ejemplo, cuando los sistemas de inteligencia artificial proporcionan orientación sobre el tratamiento médico, las solicitudes de préstamo o el empleo, deben hacer las mismas recomendaciones a las personas con síntomas similares, circunstancias financieras o calificaciones.

Equidad e inclusión en Azure Machine Learning: el componente de evaluación de equidad del panel de inteligencia artificial responsable ayuda a evaluar la equidad del modelo entre grupos confidenciales, como el género, la etnicidad, la edad y otras características.

Confiabilidad y seguridad

Para generar confianza, los sistemas de inteligencia artificial deben funcionar de forma confiable, segura y coherente. Deben funcionar como diseñados, responder de forma segura a condiciones inesperadas y resistir la manipulación dañina. Su comportamiento y capacidad de controlar diferentes condiciones reflejan la gama de situaciones que los desarrolladores prevén durante el diseño y las pruebas.

Confiabilidad y seguridad en Azure Machine Learning: el componente de análisis de errores del panel de inteligencia artificial responsable le ayuda a:

  • Adquirir un profundo conocimiento de cómo se distribuye el error en un modelo.
  • Identificar las cohortes (subconjuntos) de los datos con una tasa de error mayor que la prueba comparativa general.

Estas discrepancias pueden producirse cuando el sistema o el modelo tienen un rendimiento inferior para grupos demográficos específicos o para condiciones de entrada observadas rara vez en los datos de entrenamiento.

Transparencia

Cuando los sistemas de inteligencia artificial informan a las decisiones que afectan a la vida de las personas, es fundamental que las personas comprendan cómo se toman esas decisiones. Por ejemplo, un banco podría usar un sistema de inteligencia artificial para decidir si una persona es digna de crédito o una empresa podría usar una para seleccionar candidatos de empleo.

Una parte fundamental de la transparencia es la interpretabilidad: proporcionar explicaciones útiles del comportamiento del sistema de inteligencia artificial. Mejorar la interpretación ayuda a las partes interesadas a comprender cómo y por qué funcionan los sistemas de inteligencia artificial, para que puedan identificar problemas de rendimiento, preocupaciones de equidad, prácticas excluyentes o resultados no deseados.

Transparencia en Azure Machine Learning: la interpretación del modelo y los componentes de hipótesis contrafactuales del panel de inteligencia artificial responsable ayudan a generar descripciones comprensibles humanas de las predicciones del modelo.

El componente de interpretación del modelo proporciona varias vistas al comportamiento de un modelo:

  • Explicaciones globales. Por ejemplo, ¿qué características afectan al comportamiento general de un modelo de asignación de préstamos?
  • Explicaciones locales. Por ejemplo, ¿por qué se ha aprobado o rechazado la solicitud de préstamo de un cliente?
  • Explicaciones del modelo para una cohorte seleccionada de puntos de datos. Por ejemplo, ¿qué características afectan al comportamiento general de un modelo de asignación de préstamos para los solicitantes con ingresos bajos?

El componente what-if contrafactual le ayuda a comprender y depurar un modelo de aprendizaje automático mostrando cómo reacciona a los cambios e perturbaciones de características.

Azure Machine Learning también admite un cuadro de mandos de IA responsable. El cuadro de mandos es un informe PDF personalizable que los desarrolladores pueden configurar, generar, descargar y compartir con partes interesadas técnicas y no técnicas. Ayuda a educar a las partes interesadas sobre el estado del conjunto de datos y el modelo, lograr el cumplimiento y crear confianza. El cuadro de mandos también puede admitir revisiones de auditoría al revelar las características del modelo de aprendizaje automático.

Privacidad y protección

A medida que la inteligencia artificial se vuelve más común, la protección de la privacidad y la protección de la información personal y empresarial es más importante y compleja. La privacidad y la seguridad de los datos requieren mucha atención porque los sistemas de inteligencia artificial necesitan datos para tomar predicciones y decisiones precisas. Los sistemas de inteligencia artificial deben cumplir con leyes de privacidad que:

  • Exijan transparencia sobre la recopilación, el uso y el almacenamiento de datos.
  • Obliguen a los consumidores a tener los controles adecuados para elegir cómo se usan sus datos.

Privacidad y seguridad en Azure Machine Learning: Azure Machine Learning permite a los administradores y desarrolladores crear configuraciones seguras que cumplan las directivas de la empresa. Con Azure Machine Learning y la plataforma Azure, puede hacer lo siguiente:

  • Restringir el acceso a los recursos y las operaciones por cuenta de usuario o grupo.
  • Restringir las comunicaciones de red entrantes y salientes.
  • Cifrar los datos en tránsito y en reposo.
  • Analizar las vulnerabilidades.
  • Aplicar y auditar directivas de configuración.

Microsoft también creó dos paquetes de código abierto para ayudar a implementar los principios de privacidad y seguridad:

  • SmartNoise: la privacidad diferencial es un conjunto de sistemas y prácticas que ayudan a mantener la seguridad y la privacidad de los datos de los usuarios. En las soluciones de aprendizaje automático, puede ser necesaria la privacidad diferencial para el cumplimiento normativo. SmartNoise es un proyecto de código abierto (desarrollado conjuntamente con Microsoft) que incluye componentes para la creación de sistemas privados globales de forma diferencial.

  • Counterfit: Counterfit es un proyecto de código abierto que consta de una herramienta de línea de comandos y una capa de automatización genérica que permite a los desarrolladores simular ciberataques contra sistemas de IA. Cualquier persona puede descargar la herramienta e implementarla mediante Azure Cloud Shell para ejecutarla en un explorador o implementarla localmente en un entorno de Python para Anaconda. Puede evaluar los modelos de inteligencia artificial hospedados en varios entornos de nube, locales o en el perímetro. La herramienta es independiente de los modelos de IA y admite varios tipos de datos, como texto, imágenes o entrada genérica.

Responsabilidad

Las personas que diseñan e implementan sistemas de inteligencia artificial deben ser responsables de cómo funcionan esos sistemas. Las organizaciones deben usar estándares del sector para desarrollar normas de responsabilidad. Estas normas ayudan a garantizar que los sistemas de inteligencia artificial no son la autoridad final sobre las decisiones que afectan a la vida de las personas y que los seres humanos mantienen un control significativo sobre sistemas altamente autónomos.

Responsabilidad en Azure Machine Learning: las operaciones de aprendizaje automático (MLOps) se basan en principios y prácticas de DevOps que mejoran la eficacia del flujo de trabajo de inteligencia artificial. Azure Machine Learning proporciona estas funcionalidades de MLOps para mejorar la responsabilidad:

  • Registro, empaquetado e implementación de modelos desde cualquier lugar. También puede realizar el seguimiento de los metadatos asociados que son necesarios para usar el modelo.
  • Captura de los datos de gobernanza del ciclo de vida de aprendizaje automático de un extremo a otro. La información de linaje registrada puede incluir quién está publicando modelos, por qué se han realizado los cambios y cuándo se implementaron o usaron los modelos en producción.
  • Notificación y alerta sobre eventos en el ciclo de vida de aprendizaje automático. Algunos ejemplos incluyen la finalización del experimento, el registro y la implementación del modelo y la detección del desfase de datos.
  • Supervise las aplicaciones para detectar problemas operativos y problemas relacionados con el aprendizaje automático. Compare las entradas del modelo durante el entrenamiento y la inferencia, explore las métricas de un modelo específico e incluya supervisión y alertas en su infraestructura de aprendizaje automático.

Además, el cuadro de mandos De ia responsable de Azure Machine Learning crea responsabilidad al habilitar la comunicación entre partes interesadas. El cuadro de mandos permite a los desarrolladores configurar, descargar y compartir información sobre el estado del modelo con las partes interesadas técnicas y no técnicas. Compartir estas conclusiones ayuda a crear confianza.

Azure Machine Learning también admite la toma de decisiones al informar a las decisiones empresariales a través de:

  • Conclusiones controladas por datos, que ayudan a las partes interesadas a comprender los efectos causales del tratamiento en los resultados que solo usan datos históricos. Por ejemplo, "¿Cómo afectaría un medicamento a la presión arterial de un paciente?" Estas conclusiones proceden del componente de inferencia causal del panel de inteligencia artificial responsable.
  • Información basada en modelos, que responde a las preguntas del usuario (por ejemplo, "¿Qué puedo hacer para obtener un resultado diferente de la inteligencia artificial la próxima vez?") para que puedan tomar medidas. Estas conclusiones se proporcionan a través del componente what-if contrafactual del panel de inteligencia artificial responsable.

Pasos siguientes