책임 있는 인공지능
소프트웨어 엔지니어는 소프트웨어가 사용자 및 사회에 미치는 영향을 일반적으로 고려하는 것이 중요합니다. 책임 있는 사용에 대한 고려 사항을 포함합니다. 애플리케이션에 인공 지능이 스며들면 AI 시스템이 작동하고 의사 결정을 내리는 방식의 특성으로 인해 이러한 고려 사항이 특히 중요합니다. 종종 확률적 모델을 기반으로 하며, 학습된 데이터에 따라 달라집니다.
AI 솔루션의 인간과 유사한 특성은 애플리케이션을 사용자 친화적으로 만드는 데 중요한 이점이지만, 사용자가 올바른 결정을 내리는 애플리케이션의 기능에 많은 신뢰를 두도록 유도할 수도 있습니다. 잘못된 예측 또는 AI 기능의 오용을 통해 개인 또는 그룹에 해를 끼칠 가능성이 주요 관심사이며, AI 지원 솔루션을 빌드하는 소프트웨어 엔지니어는 위험을 완화하고 공정성, 안정성 및 피해 또는 차별로부터 적절한 보호를 보장하기 위해 적절한 고려 사항을 적용해야 합니다.
Microsoft에서 채택된 책임 있는 AI에 대한 몇 가지 핵심 원칙을 살펴보겠습니다.
공정성
AI 시스템은 모든 사람을 공정하게 처리해야 합니다. 예를 들어 은행에 대한 대출 승인 애플리케이션을 지원하는 기계 학습 모델을 만드는 경우를 가정해 보겠습니다. 이 모델은 성별, 인종 또는 특정 지원자 그룹에 불공정한 이점 또는 불이익을 초래할 수 있는 기타 요인에 근거한 편견을 통합하지 않고 대출을 승인해야 하는지 여부를 예측해야 합니다.
기계 학습 시스템의 공정성은 진행 중인 연구의 매우 활발한 영역이며, 기계 학습된 모델의 불공정성을 평가, 수량화 및 완화하기 위한 일부 소프트웨어 솔루션이 존재합니다. 그러나 도구만으로는 공정성을 보장하기에 충분하지 않습니다. 애플리케이션 개발 프로세스의 시작 부분에서 공정성을 고려합니다. 학습 데이터를 신중하게 검토하여 잠재적으로 영향을 받을 수 있는 모든 주제를 대표하고 개발 수명 주기 내내 사용자 모집단의 하위 섹션에 대한 예측 성능을 평가합니다.
안정성 및 안전
AI 시스템은 안정적이고 안전하게 수행해야 합니다. 예를 들어 자율 주행 차량에 대한 AI 기반 소프트웨어 시스템을 고려합니다. 또는 환자 증상을 진단하고 처방전을 권장하는 기계 학습 모델입니다. 이러한 유형의 시스템의 신뢰할 수 없음은 인간의 삶에 상당한 위험을 초래할 수 있습니다.
모든 소프트웨어와 마찬가지로 AI 기반 소프트웨어 애플리케이션 개발은 릴리스 전에 예상대로 작동하도록 엄격한 테스트 및 배포 관리 프로세스를 거쳐야 합니다. 또한 소프트웨어 엔지니어는 기계 학습 모델의 확률적 특성을 고려하고 예측에 대한 신뢰도 점수를 평가할 때 적절한 임계값을 적용해야 합니다.
개인 정보 및 보안
AI 시스템은 안전하고 개인 정보를 보호해야 합니다. AI 시스템을 기반으로 하는 기계 학습 모델은 개인 정보를 포함할 수 있는 대량의 데이터를 사용합니다. 모델이 학습되고 시스템이 프로덕션 환경에 있는 경우에도 새 데이터를 사용하여 예측을 수행하거나 개인 정보 보호 또는 보안 문제가 발생할 수 있는 조치를 취합니다. 따라서 데이터 및 고객 콘텐츠를 보호하기 위한 적절한 보호 조치를 구현해야 합니다.
포용성
AI 시스템은 모든 사람에게 권한을 부여하고 사람들을 참여시켜야 합니다. AI는 신체적 능력, 성별, 성적 지향, 인종 또는 기타 요인에 관계없이 사회의 모든 부분에 혜택을 가져와야 합니다.
포용성을 최적화하는 한 가지 방법은 애플리케이션의 디자인, 개발 및 테스트에 가능한 한 다양한 사용자 그룹의 입력이 포함되도록 하는 것입니다.
투명성
AI 시스템은 이해할 수 있어야 합니다. 사용자는 시스템의 목적, 작동 방식 및 예상되는 제한 사항을 완전히 인식해야 합니다.
예를 들어 AI 시스템이 기계 학습 모델을 기반으로 하는 경우 일반적으로 사용자가 예측의 정확도에 영향을 줄 수 있는 요인(예: 모델 학습에 사용되는 사례 수 또는 예측에 가장 큰 영향을 미치는 특정 기능)을 인식하도록 해야 합니다. 예측의 신뢰도 점수에 대한 정보도 공유해야 합니다.
AI 애플리케이션이 사람들의 이미지를 인식하도록 하는 얼굴 인식 시스템과 같은 개인 데이터를 사용하는 경우 데이터를 사용하고 보존하는 방법과 해당 데이터에 대한 액세스 권한이 있는 사용자를 사용자에게 명확하게 표시해야 합니다.
책임
사람들은 AI 시스템에 대한 책임을 져야 합니다. 많은 AI 시스템이 자율적으로 작동하는 것처럼 보이지만, 궁극적으로는 사용하는 모델을 학습하고 유효성을 검사하고 전체 시스템이 책임 요구 사항을 충족하도록 모델 예측을 기반으로 하는 논리를 정의한 개발자의 책임입니다. 이 목표를 달성하기 위해 AI 기반 솔루션의 디자이너와 개발자는 솔루션이 명확하게 정의된 책임 있고 법적 표준을 충족하도록 보장하는 거버넌스 및 조직 원칙의 프레임워크 내에서 작동해야 합니다.