Inteligencia artificial responsable

Completado

Es importante que los ingenieros de software tengan en cuenta el impacto de su software en los usuarios y la sociedad en general; incluyendo consideraciones para su uso responsable. Cuando la aplicación está inmbuida de la inteligencia artificial, estas consideraciones son especialmente importantes debido a la naturaleza de cómo funcionan los sistemas de inteligencia artificial e informan las decisiones; a menudo se basan en modelos probabilísticos, que a su vez dependen de los datos con los que se entrenaron.

La naturaleza similar a la humana de las soluciones de inteligencia artificial es una ventaja importante para hacer que las aplicaciones sean fáciles de usar, pero también puede llevar a los usuarios a poner una gran confianza en la capacidad de la aplicación para tomar decisiones correctas. La posibilidad de dañar a personas o grupos a través de predicciones incorrectas o mal uso de las funcionalidades de inteligencia artificial es una preocupación importante, y los ingenieros de software que crean soluciones habilitadas para IA deben aplicar la debida consideración para mitigar los riesgos y garantizar la imparcialidad, la confiabilidad y la protección adecuada frente a daños o discriminación.

Analicemos algunos principios básicos de la inteligencia artificial responsable que se han adoptado en Microsoft.

Imparcialidad

diagrama de escalas.

Los sistemas de inteligencia artificial deben tratar a todas las personas de forma justa. Por ejemplo, supongamos que crea un modelo de aprendizaje automático para admitir una solicitud de aprobación de préstamos para un banco. El modelo debe hacer predicciones sobre si el préstamo debe aprobarse o no sin incorporar ningún sesgo basado en el género, la etnicidad u otros factores que podrían dar lugar a una ventaja o desventaja desleal a grupos específicos de solicitantes.

La equidad de los sistemas de aprendizaje automático es un área muy activa de la investigación en curso y existen algunas soluciones de software para evaluar, cuantificar y mitigar la injusticia en los modelos de aprendizaje automático. Sin embargo, las herramientas por sí solas no son suficientes para garantizar la equidad. Considere la equidad desde el principio del proceso de desarrollo de aplicaciones; revise cuidadosamente los datos de entrenamiento para asegurarse de que es representativo de todos los temas potencialmente afectados y de evaluar el rendimiento predictivo para las subsecciones de la población del usuario a lo largo del ciclo de vida de desarrollo.

Confiabilidad y seguridad

diagrama de un escudo.

Los sistemas de inteligencia artificial deben funcionar de forma confiable y segura. Por ejemplo, considere un sistema de software basado en inteligencia artificial para un vehículo autónomo; o un modelo de aprendizaje automático que diagnostica los síntomas del paciente y recomienda recetas. La inrelibilidad en estos tipos de sistema puede dar lugar a un riesgo considerable para la vida humana.

Al igual que con cualquier software, el desarrollo de aplicaciones de software basado en inteligencia artificial debe estar sujeto a rigurosos procesos de administración de pruebas e implementación para asegurarse de que funcionan según lo previsto antes de la versión. Además, los ingenieros de software deben tener en cuenta la naturaleza probabilística de los modelos de aprendizaje automático y aplicar umbrales adecuados al evaluar las puntuaciones de confianza para las predicciones.

Privacidad y seguridad

diagrama de un candado.

Los sistemas de inteligencia artificial deben ser seguros y respetar la privacidad. Los modelos de aprendizaje automático en los que los sistemas de inteligencia artificial se basan en grandes volúmenes de datos, que pueden contener detalles personales que se deben mantener privados. Incluso después de entrenar modelos y el sistema está en producción, usan nuevos datos para realizar predicciones o tomar medidas que puedan estar sujetas a problemas de privacidad o seguridad; de modo que se deben implementar medidas de seguridad adecuadas para proteger los datos y el contenido del cliente.

Inclusión

diagrama de un grupo diverso de personas.

Los sistemas de inteligencia artificial deben capacitar a todos los usuarios e interactuar con las personas. La inteligencia artificial debe aportar beneficios a todas las partes de la sociedad, independientemente de la capacidad física, el género, la orientación sexual, la etnicidad u otros factores.

Una manera de optimizar la inclusión es asegurarse de que el diseño, el desarrollo y las pruebas de la aplicación incluya la entrada de un grupo de personas tan diverso como sea posible.

Transparencia

diagrama de un ojo.

Los sistemas de inteligencia artificial deben ser comprensibles. Los usuarios deben tener en cuenta plenamente el propósito del sistema, cómo funciona y qué limitaciones se pueden esperar.

Por ejemplo, cuando un sistema de inteligencia artificial se basa en un modelo de aprendizaje automático, normalmente debe hacer que los usuarios conozcan factores que pueden afectar a la precisión de sus predicciones, como el número de casos usados para entrenar el modelo o las características específicas que tienen la mayor influencia sobre sus predicciones. También debe compartir información sobre la puntuación de confianza de las predicciones.

Cuando una aplicación de inteligencia artificial se basa en datos personales, como un sistema de reconocimiento facial que toma imágenes de personas para reconocerlos; Debe dejar claro al usuario cómo se usan y conservan sus datos y quién tiene acceso a ellos.

Responsabilidad

Un diagrama de un apretón de manos.

Las personas deben ser responsables de los sistemas de inteligencia artificial. Aunque muchos sistemas de inteligencia artificial parecen funcionar de forma autónoma, en última instancia es responsabilidad de los desarrolladores que entrenaron y validaron los modelos que usan y definieron la lógica que basa las decisiones sobre predicciones del modelo para asegurarse de que el sistema general cumple los requisitos de responsabilidad. Para ayudar a cumplir este objetivo, los diseñadores y desarrolladores de soluciones basadas en inteligencia artificial deben funcionar dentro de un marco de gobernanza y principios organizativos que garantizan que la solución cumple los estándares responsables y legales que están claramente definidos.

Sugerencia

Para obtener más información sobre los principios de Microsoft para la inteligencia artificial responsable, consulte el sitio de inteligencia artificial responsable de Microsoft.