다음을 통해 공유


책임 있는 AI란?

적용 대상:Azure CLI ml 확장 v2(현재)Python SDK azure-ai-ml v2(현재)

책임 있는 AI(책임 있는 AI)는 안전하고 윤리적으로 신뢰할 수 있는 AI 시스템을 개발, 평가 및 배포하는 접근 방식입니다. AI 시스템은 작성자가 내린 많은 결정으로 인해 발생합니다. 책임 있는 AI는 시스템 목적 정의에서 사용자 상호 작용에 이르는 이러한 결정을 보다 유익하고 공평한 결과로 안내하는 데 도움이 됩니다. 사람과 목표를 디자인의 중심에 두고 공정성, 신뢰성 및 투명성과 같은 가치를 존중합니다.

Microsoft는 공정성, 안정성 및 안전성, 개인 정보 보호 및 보안, 포용성, 투명성 및 책임의 6가지 원칙을 기반으로 AI 시스템을 빌드하기 위한 프레임워크인 책임 있는 AI 표준을 만들었습니다. 이러한 원칙은 AI에 대한 책임 있고 신뢰할 수 있는 접근 방식의 기초이며, 특히 지능형 기술이 일상적인 제품 및 서비스에서 더 일반화됨에 따라 더욱 그렇습니다.

이 문서에서는 Azure Machine Learning이 개발자와 데이터 과학자가 이러한 6가지 원칙을 구현하고 운영하는 데 도움이 되는 도구를 제공하는 방법을 설명합니다.

공정성, 안정성 및 안전, 개인정보 보호 및 보안, 포용성, 투명성 및 책임성을 포함하는 Microsoft 책임 있는 AI의 6가지 원칙에 대한 다이어그램

공정성 및 포용성

AI 시스템은 모든 사람을 공정하게 처리하고 유사한 그룹에 다르게 영향을 주지 않아야 합니다. 예를 들어 AI 시스템이 의료, 대출 신청 또는 고용에 대한 지침을 제공하는 경우 유사한 증상, 재무 상황 또는 자격을 가진 사람들에게 동일한 권장 사항을 제시해야 합니다.

Azure Machine Learning의 공정성 및 포용성: 책임 있는 AI 대시보드공정성 평가 구성 요소는 성별, 민족, 연령 및 기타 특성과 같은 중요한 그룹 간에 모델 공정성을 평가하는 데 도움이 됩니다.

신뢰성 및 안전성

신뢰를 구축하기 위해 AI 시스템은 안정적이고 안전하며 일관되게 작동해야 합니다. 설계대로 작동하고, 예기치 않은 조건에 안전하게 대응하며, 유해한 조작에 저항해야 합니다. 이러한 동작과 다양한 조건을 처리하는 기능은 개발자가 디자인 및 테스트 중에 예상한 상황의 범위를 반영합니다.

Azure Machine Learning의 안정성 및 안전성: 책임 있는 AI 대시보드오류 분석 구성 요소는 다음을 도와줍니다.

  • 모델에 대해 오류가 배포되는 방식을 자세히 이해합니다.
  • 오류율이 전체 벤치마크보다 높은 데이터의 코호트(하위 집합)를 식별합니다.

이러한 불일치는 시스템 또는 모델이 특정 인구 통계 그룹 또는 학습 데이터에서 거의 관찰되지 않는 입력 조건의 성능이 저조할 때 발생할 수 있습니다.

투명성

AI 시스템이 사람들의 삶에 영향을 주는 결정을 내릴 때 사람들은 이러한 결정이 어떻게 이루어지는지 이해하는 것이 중요합니다. 예를 들어 은행은 AI 시스템을 사용하여 사람이 신용 가치가 있는지 여부를 결정하거나 회사에서 이를 사용하여 지원자를 선택할 수 있습니다.

투명성의 중요한 부분은 AI 시스템 동작에 대한 유용한 설명을 제공하는 해석성입니다. 해석성을 개선하면 이해 관계자가 AI 시스템이 작동하는 방식과 이유를 파악하여 성능 문제, 공정성 문제, 배제 사례 또는 의도하지 않은 결과를 식별할 수 있습니다.

Azure Machine Learning의 투명성: 책임 있는 AI 대시보드모델 해석 가능성가상 가상 구성 요소는 모델 예측에 대한 사람이 이해할 수 있는 설명을 생성하는 데 도움이 됩니다.

모델 해석성 구성 요소는 모델의 동작에 대한 몇 가지 보기를 제공합니다.

  • 전체 설명. 예를 들어 대출 할당 모델의 전체 동작에 영향을 주는 기능은 무엇인가요?
  • 부분 설명. 예를 들어 고객의 대출 신청이 승인되거나 거부된 이유는 무엇인가요?
  • 선택한 데이터 지점의 코호트에 대한 모델 설명. 예를 들어 저소득 신청자의 대출 할당 모델에 대한 전체 동작에 영향을 주는 기능은 무엇인가요?

가상 구성 요소는 기능 변경 및 혼란의 반응 방식을 보여 줌으로써 기계 학습 모델을 이해하고 디버그하는 데 도움이 됩니다.

또한 Azure Machine Learning은 책임 있는 AI 성과 기록표를 지원합니다. 성과 기록표는 개발자가 기술 및 비기술 관련자와 구성, 생성, 다운로드 및 공유할 수 있는 사용자 지정 가능한 PDF 보고서입니다. 데이터 세트 및 모델 상태에 대해 이해 관계자에게 교육하고, 규정 준수를 달성하고, 신뢰를 구축하는 데 도움이 됩니다. 성과 기록표는 기계 학습 모델 특성을 표시하여 감사 검토를 지원할 수도 있습니다.

개인 정보 보호 및 보안

AI가 일반화됨에 따라 개인 정보 보호 및 개인 및 비즈니스 정보 보호가 더 중요하고 복잡해집니다. AI 시스템은 정확한 예측과 의사 결정을 내리기 위해 데이터가 필요하기 때문에 개인 정보 보호 및 데이터 보안에 주의를 기울여야 합니다. AI 시스템은 다음과 같은 개인 정보 보호법을 준수해야 합니다.

  • 데이터 수집, 사용 및 저장에 대한 투명성이 필요합니다.
  • 소비자가 데이터를 사용하는 방법을 선택할 수 있는 적절한 제어 권한을 갖도록 위임합니다.

Azure Machine Learning의 개인 정보 보호 및 보안: Azure Machine Learning을 사용하면 관리자와 개발자가 회사 정책을 준수하는 보안 구성을 만들 수 있습니다. Azure Machine Learning 및 Azure 플랫폼을 사용하면 다음을 수행할 수 있습니다.

  • 사용자 계정 또는 그룹의 리소스 및 작업에 액세스를 제한합니다.
  • 들어오고 나가는 네트워크 통신을 제한합니다.
  • 전송 중 및 미사용 데이터를 암호화합니다.
  • 취약성을 검사합니다.
  • 구성 정책을 적용하고 감사합니다.

또한 Microsoft는 개인 정보 보호 및 보안 원칙을 구현하는 데 도움이 되는 두 개의 오픈 소스 패키지를 만들었습니다.

  • SmartNoise: 차등 개인정보 보호는 개인의 데이터를 안전하고 비공개로 유지하는 데 도움이 되는 일단의 시스템과 사례입니다. 기계 학습 솔루션에서 규정 준수를 위해 차등 개인정보 보호가 필요할 수 있습니다. SmartNoise는 차등 프라이빗 시스템을 빌드하기 위한 구성 요소가 포함된 오픈 소스 프로젝트(Microsoft 공동 개발)입니다.

  • Counterfit: Counterfit는 개발자가 AI 시스템에 대한 사이버 공격을 시뮬레이션할 수 있도록 명령줄 도구와 일반 자동화 계층으로 구성된 오픈 소스 프로젝트입니다. 누구나 도구를 다운로드하고 Azure Shell을 통해 배포하여 브라우저에서 실행하거나 Anaconda Python 환경에서 로컬로 배포할 수 있습니다. 다양한 클라우드 환경, 온-프레미스 또는 에지에서 호스팅되는 AI 모델을 평가할 수 있습니다. 이 도구는 AI 모델에 구애받지 않으며 텍스트, 이미지 또는 일반 입력을 포함한 다양한 데이터 형식을 지원합니다.

책임성

AI 시스템을 디자인하고 배포하는 사람은 해당 시스템의 작동 방식에 대해 책임을 져야 합니다. 조직은 업계 표준을 사용하여 책임 규범을 개발해야 합니다. 이러한 규범은 AI 시스템이 사람들의 삶에 영향을 미치는 결정에 대한 최종 권한이 아니며 인간이 고도로 자율적인 시스템에 대한 의미 있는 제어를 유지하도록 하는 데 도움이 됩니다.

Azure Machine Learning의 책임: MLOps(기계 학습 작업) 는 AI 워크플로 효율성을 향상시키는 DevOps 원칙 및 사례를 기반으로 합니다. Azure Machine Learning은 더 나은 책임을 위해 다음과 같은 MLOps 기능을 제공합니다.

  • 어디에서나 모델을 등록, 패키징 및 배포합니다. 모델을 사용하는 데 필요한 연결된 메타데이터를 추적할 수도 있습니다.
  • 엔드투엔드 기계 학습 수명 주기에 대한 거버넌스 데이터를 캡처합니다. 로그된 계보 정보에는 모델을 게시하는 주체, 변경 사유, 프로덕션 환경에서 모델이 배포 또는 사용된 시점 등이 포함될 수 있습니다.
  • 기계 학습 수명 주기의 이벤트를 알리고 경고합니다. 예를 들어 실험 완료, 모델 등록, 모델 배포 및 데이터 드리프트 검색이 있습니다.
  • 기계 학습과 관련된 문제 및 운영 문제에 대해 애플리케이션을 모니터링합니다. 학습과 유추 간의 모델 입력을 비교하고, 모델별 메트릭을 탐색하고, 기계 학습 인프라에 대한 모니터링 및 경고를 제공합니다.

또한 Azure Machine Learning의 책임 있는 AI 성과 기록표 는 이해 관계자 간 통신을 사용하도록 설정하여 책임을 만듭니다. 성과 기록표를 통해 개발자는 기술 및 비기술 관련자와 모델 상태 인사이트를 구성, 다운로드 및 공유할 수 있습니다. 이러한 인사이트를 공유하면 신뢰를 구축하는 데 도움이 됩니다.

또한 Azure Machine Learning은 다음을 통해 비즈니스 의사 결정을 알려 의사 결정을 지원합니다.

  • 관련자가 기록 데이터만 사용하여 결과에 미치는 인과 관계 처리 효과를 이해하는 데 도움이 되는 데이터 기반 인사이트입니다. 예를 들면, "약은 환자의 혈압에 어떻게 영향을 미칠 것인가?" 이러한 인사이트는 책임 있는 AI 대시보드인과 관계 유추 구성 요소에서 제공됩니다.
  • 작업을 수행할 수 있도록 사용자 질문에 대답하는 모델 기반 인사이트(예: "다음에 AI와 다른 결과를 얻기 위해 무엇을 할 수 있나요?"). 이러한 인사이트는 책임 있는 AI 대시보드가상 가상 구성 요소를 통해 제공됩니다.

다음 단계