ML은 긍정적이든 부정적이든 다양한 의미 있는 방식으로 사회를 변화시킬 수 있습니다. 모델과 모델이 속한 시스템의 윤리적 영향을 고려하는 것이 중요합니다.
ML 프로젝트는 사회에 도움이 되어야 합니다. 해를 입히거나 오용될 수 있는 기능은 제공해서는 안 됩니다. 편견이나 선입견을 조장, 강화 또는 악화해서는 안 됩니다. 개인 정보를 무책임하게 수집하거나 사용해서는 안 됩니다.Google의 AI 원칙
Google은 AI 원칙을 준수하는 ML 및 AI 애플리케이션 개발을 권장합니다. Google의 원칙은 다음 개념을 중심으로 합니다.
- 공정성
- 개인 정보 보호
- 투명성
- 안전
공정성
불공정한 편견을 만들거나 강화해서는 안 됩니다. 학습 데이터에 다음과 같은 특징이 있는 경우 모델에 편향이 발생합니다.
실제 사용자 수를 반영하지 않습니다.
편향된 결정이나 결과를 보존합니다(예: 수감 기간과 같은 형사 사법 결정).
특정 사용자 그룹에 더 예측력이 뛰어난 기능을 사용합니다.
위의 예는 모델이 편향되는 몇 가지 방법일 뿐입니다. 데이터에 포함된 잠재적 편향을 파악하고 해결하려면 데이터를 철저히 이해하는 것이 중요합니다. 공정한 모델을 개발하기 위한 첫 번째 단계는 학습 데이터가 사용자 분포를 정확하게 반영하는지 확인하는 것입니다. 다음은 공정한 모델을 만드는 데 도움이 되는 추가 권장사항입니다.
평가 데이터 세트에서 소외된 그룹 또는 다른 그룹에 비해 모델 품질이 저하될 수 있는 그룹을 식별합니다. 학습 데이터에서 사용자의 비중을 높이려면 사용자의 하위 그룹을 오버샘플링해야 할 수 있습니다.
골든 데이터 세트(벤치마크 데이터 세트라고도 함)를 사용하여 공정성 문제에 대해 모델을 검증하고 내재된 편향을 감지합니다.
성별이나 민족과 같은 민감한 특성을 데이터 세트에 포함하지 마세요.
특히 헬스케어, 금융, 교육, 고용 등과 같은 영역에서 영향력이 큰 작업을 수행하는 데 학습된 모델이 사용되는 민감한 상황에서는 경험적 또는 설명력이 약한 기능을 포함하지 마세요. 예를 들어 주택 담보 대출 승인 모델의 경우 학습 데이터에 이름을 포함하지 마세요. 지원자의 이름은 예측 작업과 관련이 없을 뿐만 아니라 이러한 관련 없는 특성을 데이터 세트에 남겨두면 암묵적인 편향이나 할당적 해를 일으킬 수 있습니다. 예를 들어 모델이 남성 이름을 상환 가능성과 더 높은 상관관계가 있는 것으로 간주할 수도 있고, 그 반대일 수도 있습니다.
모델의 예측이 특정 그룹에 미칠 수 있는 잠재적 부정적인 영향을 측정하고 민감한 맥락에서 부정적인 영향을 발견하면 의도적인 편향 수정 기법을 고려하세요.
개인 정보 보호
처음부터 개인 정보 보호 적용 설계의 원칙을 반영합니다.
다음은 숙지하고 준수해야 하는 개인 정보 보호 관련 법률 및 정책입니다.
개인 정보 공유 또는 사용에 대한 동의에 관한 유럽 연합의 디지털 시장법 (DMA)
유럽 연합 GDPR 법규
또한 데이터 세트에서 모든 개인 식별 정보(PII)를 삭제하고 모델 및 데이터 저장소가 올바른 권한으로 설정되어 있는지 확인합니다(예: 모든 사용자가 읽을 수 없음).
투명성
사람들에 대한 책임 의식을 가져야 합니다. 예를 들어 다른 사용자가 모델의 기능, 작동 방식, 작동 이유를 쉽게 이해할 수 있도록 합니다. 모델 카드 는 모델을 문서화하고 투명성 아티팩트를 만드는 템플릿을 제공합니다.
안전
적대적인 환경에서 안전하게 작동하도록 모델을 설계합니다. 예를 들어 잠재적으로 악의적인 입력으로 모델을 테스트하여 모델이 안전한지 확인합니다. 또한 잠재적인 오류 조건을 확인합니다. 팀은 일반적으로 특별히 설계된 데이터 세트를 사용하여 이전에 모델이 실패하게 한 입력 또는 조건으로 모델을 테스트합니다.
이해도 확인
모델이 작동하는 더 광범위한 사회적 맥락을 항상 고려하세요. 민감한 정보의 처리가 개인 정보 보호 문제를 침해하거나 편견을 조장하거나 타인의 지식 재산권을 침해하지 않도록 하세요.