ML에는 긍정적이든 부정적이든 여러 가지 의미 있는 방식으로 사회를 변화시킬 수 있는 잠재력이 있습니다 모델과 모델이 속한 시스템의 윤리적 의미를 고려하는 것이 중요합니다
Google에서 개발한 여느 기술과 마찬가지로 ML 프로젝트도 사회에 도움이 되어야 합니다 사용자에게 해를 끼치거나 악용되기 쉽지 않아야 합니다. 편견이나 편견을 지속, 강화 또는 악화해서는 안 됩니다. 개인 정보를 무책임하게 수집하거나 사용해서는 안 됩니다.
Google의 AI 원칙
ML 프로젝트는 Google의 AI 원칙을 준수해야 합니다. 책임감 있는 AI (RAI) 스마트 관행 사이트는 Google 직원이 Google의 AI 원칙에 부합하는 윤리적으로 건전한 ML 솔루션을 개발할 수 있도록 지원합니다.
RAI 스마트 관행은 팀이 AI 및 ML을 책임감 있게 개발하기 위해 구현해야 하는 실행 가능한 가이드라인입니다. ML 솔루션은 다음 영역에서 Google의 지침을 따라야 합니다
- 공정성
- 개인 정보 보호
- 투명성
- 안전
ML 및 윤리와 관련된 질문이나 우려사항이 있으면 제품의 PCounsel 및 개인 정보 보호 실무 그룹에 문의하세요.
공정성
불공정한 편향을 만들거나 강화해서는 안 됩니다. 모델은 학습 데이터에 다음과 같은 특성이 있을 때 편향을 보입니다.
사용자의 실제 인구를 반영하지 않습니다.
예를 들어 수감 시점과 같은 형사 판결과 같이 편향된 결정이나 결과를 보존합니다.
특정 사용자 그룹에 대해 예측 성능이 더 뛰어난 기능을 사용합니다.
앞의 예는 모델이 편향되는 몇 가지 방법일 뿐입니다. 데이터를 철저히 이해하는 것은 데이터에 포함된 잠재적 편향을 발견하고 해결하는 데 매우 중요합니다. 공정한 모델을 개발하기 위한 첫 번째 단계는 학습 데이터가 사용자 분포를 정확하게 반영하는지 확인하는 것입니다. 다음은 공정한 모델을 만드는 데 도움이 되는 추가 권장사항입니다.
평가 데이터 세트 또는 그룹에서 다른 그룹에 비해 모델 품질이 떨어질 수 있는 과소 대표 그룹을 식별합니다. 학습 데이터에서 사용자 존재를 늘리기 위해 사용자의 하위 그룹을 오버샘플링해야 할 수 있습니다.
최적의 데이터 세트(벤치마크 데이터 세트라고도 함)를 사용하여 공정성 문제에 대해 모델을 검증하고 내재된 편향을 감지합니다.
성별이나 민족과 같은 민감한 특성을 데이터 세트에 포함하지 마세요.
경험적 또는 설명적 능력이 거의 없는 특성은 포함하지 않는 것이 좋습니다. 특히 의료, 금융, 교육, 고용 등의 영역에서 큰 영향을 미치는 작업을 실행하기 위해 학습된 모델이 사용되는 민감한 컨텍스트에는 포함되지 않습니다. 예를 들어 주택담보대출 승인 모델의 경우 학습 데이터에 이름을 포함하지 마세요. 지원자의 이름은 예측 작업과 관련이 없을 뿐만 아니라 데이터 세트에 이처럼 관련 없는 특성을 남겨두면 내재적 편향이나 할당 피해가 발생할 가능성이 있습니다. 예를 들어 이 모델은 남성 이름과 상환 확률의 상관관계를 나타낼 수 있으며, 그 반대의 경우도 마찬가지입니다.
모델의 예측이 특정 그룹에 미칠 수 있는 잠재적 부정적 영향을 측정하고, 민감한 컨텍스트에서 부정적인 영향이 발견되면 의도적인 편향 수정 기법을 고려합니다.
AI 및 ML 공정성에 대한 자세한 내용은 스마트 관행 공정성 페이지 및 머신러닝 단기집중과정 공정성 모듈을 참조하세요.
개인 정보 보호
개인 정보 보호 설계의 원칙을 처음부터 통합합니다. Google의 새로운 기능이나 제품과 마찬가지로, 제품 영역의 개인 정보 보호 실무 그룹에서 모델을 검토해야 합니다. 따라서 초기 의견을 받으려면 개인 정보 보호 설계 문서를 빨리 만드세요.
다음은 숙지 및 준수해야 하는 개인 정보 보호 관련 법률 및 정책입니다.
유럽 연합 GDPR 법률을 따릅니다.
다음은 Google에만 적용되는 개인 정보 보호 관행입니다.
Wipeout 규정
바이너리 및 구성 ID(BCID) 수준 4를 사용하여 악성 코드 또는 손상된 코드가 시스템에 액세스하는 것을 방지합니다.
데이터 세트에서 모든 PII를 삭제하고 모델과 데이터 저장소가 올바른 권한으로 설정되어 있는지(예: 누구나 읽을 수 없음) 확인합니다.
다음 동영상은 개인 정보 보호 관련 문제를 개략적으로 설명합니다.
AI 및 ML 개인 정보 보호에 대한 자세한 내용은 스마트 관행 개인 정보 보호 페이지를 참조하세요.
투명성
사람이 책임을 질 수 있어야 합니다. 예를 들어 모델의 역할, 수행 방식, 작업 이유를 다른 사용자가 쉽게 이해할 수 있도록 해야 합니다. 모델 카드는 모델을 문서화하고 투명성 아티팩트를 만드는 템플릿을 제공합니다.
AI 및 ML 투명성에 대한 자세한 내용은 스마트 관행 투명성 페이지를 참조하세요.
안전
적대적인 조건에서도 안전하게 작동하도록 모델 설계 예를 들어 적대적인 입력으로 모델을 테스트하여 모델이 안전한지 확인합니다. 또한 잠재적인 실패 조건을 확인합니다. 일반적으로 팀은 과거에 모델에 장애가 발생한 입력이나 조건으로 모델을 테스트하기 위해 특별히 설계된 데이터 세트를 사용합니다.
안전에 대한 자세한 내용은 책임감 있는 AI 페이지를 참조하세요.
모델이 작동하는 더 광범위한 사회적 맥락을 항상 고려해야 합니다. 민감한 정보를 취급할 때 개인 정보 보호 문제를 위반하거나, 편견을 지속시키거나, 다른 사람의 지적 재산권을 침해하지 않도록 하세요.
생성형 AI 윤리에 대한 자세한 내용은 생성형 AI를 위한 RAI 스마트 프랙티스를 참조하세요.