책무성

책임성은 AI 시스템의 영향에 대한 책임을 갖는 것을 의미합니다. 책임성에는 일반적으로 투명성 또는 시스템 동작 및 조직 프로세스에 관한 정보 공유가 포함되며 여기에는 모델과 데이터 세트가 생성, 학습, 평가된 방식을 문서화하고 공유하는 것이 포함될 수 있습니다. 다음 사이트에서는 책임 문서에 관한 두 가지 유용한 모드를 설명합니다.

책임성의 또 다른 측면은 해석 가능성입니다. 해석 가능성은 사람이 예측으로 이어지는 특성을 식별할 수 있는 ML 모델 결정을 이해하는 것을 말합니다. 또한 설명 가능성은 모델의 자동화된 결정을 인간이 이해할 수 있는 방식으로 설명할 수 있는 능력입니다.

사람 + AI 가이드북설명 가능성 + 신뢰 섹션에서 AI 시스템에 대한 사용자 신뢰 구축에 대해 자세히 알아보세요. Google의 설명 가능성 리소스에서 실제 사례와 권장사항을 확인할 수도 있습니다.