생성 AI 솔루션을 책임 있게 관리
잠재적인 피해를 매핑하고, 현재 상태를 측정하는 방법을 개발하고, 솔루션에서 완화를 구현한 후 솔루션을 릴리스할 준비를 할 수 있습니다. 이렇게 하기 전에 성공적인 릴리스 및 후속 작업을 보장하는 데 도움이 되는 몇 가지 고려 사항이 있습니다.
시험판 검토 완료
생성 AI 솔루션을 릴리스하기 전에 조직 및 업계의 다양한 규정 준수 요구 사항을 식별하고 적절한 팀에 시스템 및 해당 설명서를 검토할 수 있는 기회가 제공되는지 확인합니다. 일반적인 규정 준수 검토는 다음과 같습니다.
- 법적
- 개인 정보 보호
- 안전
- 접근성
솔루션 릴리스 및 운영
릴리스에 성공하려면 몇 가지 계획과 준비가 필요합니다. 다음 지침을 고려하세요.
- 솔루션을 처음에 제한된 사용자 그룹에 릴리스할 수 있는 단계별 배달 계획 고안합니다. 이 방법을 사용하면 더 많은 대상에게 릴리스하기 전에 피드백을 수집하고 문제를 식별할 수 있습니다.
- 예기치 않은 인시던트에 대응하는 데 걸린 예상 시간을 포함하는 인시던트 대응 계획 만듭니다.
- 인시던트가 발생할 경우 솔루션을 이전 상태로 되돌리는 단계를 정의하는 롤백 계획 만듭니다.
- 유해한 시스템 응답이 발견되면 즉시 차단하는 기능을 구현합니다.
- 시스템 오용 시 특정 사용자, 애플리케이션 또는 클라이언트 IP 주소를 차단하는 기능을 구현합니다.
- 사용자가 피드백을 제공하고 문제를 보고하는 방법을 구현합니다. 특히 사용자가 생성된 콘텐츠를 "부정확", "불완전", "유해", "공격적" 또는 기타 문제가 있는 것으로 보고할 수 있습니다.
- 사용자 만족도를 결정하고 기능적 격차 또는 유용성 문제를 식별할 수 있는 원격 분석 데이터를 추적합니다. 수집된 원격 분석은 개인 정보 보호법 및 사용자 개인 정보 보호에 대한 조직의 정책 및 약속을 준수해야 합니다.
Microsoft Foundry 콘텐츠 안전 활용
여러 Azure AI 리소스는 콘텐츠 필터를 사용하여 언어, 비전, Azure OpenAI 등 작업하는 콘텐츠에 대한 기본 분석을 제공합니다.
Microsoft Foundry 콘텐츠 안전은 AI 및 부조종사 위험으로부터 안전하게 유지하는 데 초점을 맞춘 더 많은 기능을 제공합니다. 이러한 기능에는 입력 또는 생성에서 부적절하거나 공격적인 언어를 감지하고 위험하거나 부적절한 입력을 감지하는 것이 포함됩니다.
Foundry 콘텐츠 안전의 기능은 다음과 같습니다.
| 특징 | 기능성 |
|---|---|
| 프롬프트 쉴드 | 사용자 입력에 의한 언어 모델 공격 위험을 감지 |
| 근거 감지 | 텍스트 응답이 사용자 원본 콘텐츠에 기반을 두고 있는지 감지합니다. |
| 보호자료감지 | 알려진 저작권이 있는 콘텐츠 검색 |
| 사용자 지정 범주 | 새 패턴 또는 새로운 패턴에 대한 사용자 지정 범주 정의 |
Foundry 콘텐츠 안전 사용에 대한 세부 정보 및 빠른 시작은 서비스의 설명서 페이지에서 찾을 수 있습니다.