책무성
책무성이란 AI 시스템의 영향에 대한 책임을 지는 것을 의미합니다. 책임성에는 일반적으로 투명성 또는 시스템 동작 및 조직 프로세스에 관한 정보 공유가 포함되며 여기에는 모델과 데이터 세트가 생성, 학습, 평가된 방식을 문서화하고 공유하는 것이 포함될 수 있습니다. 다음 사이트에서는 책임 문서의 두 가지 유용한 모드를 설명합니다.
책임성의 또 다른 측면은 해석 가능성입니다. 해석 가능성은 사람이 예측으로 이어지는 특성을 식별할 수 있는 ML 모델 결정을 이해하는 것을 포함합니다. 또한 설명 가능성은 모델의 자동화된 결정을 사람이 이해할 수 있는 방식으로 설명할 수 있는 능력입니다.
AI 시스템에 대한 사용자 신뢰 구축에 관한 자세한 내용은 사람 + AI 가이드북의 설명 가능성 + 신뢰 섹션과 Google의 책임감 있는 AI 관행의 해석 가능성 섹션을 참고하세요. Google의 설명 가능성 리소스에서 실제 사례와 권장사항을 확인할 수도 있습니다.