책무성
책임성은 AI 시스템의 영향에 대한 책임을 갖는 것을 의미합니다.
책임성에는 일반적으로 투명성 또는 시스템 동작 및 조직 프로세스에 관한 정보 공유가 포함되며 여기에는 모델과 데이터 세트가 생성, 학습, 평가된 방식을 문서화하고 공유하는 것이 포함될 수 있습니다. 다음 사이트에서는 책임 문서에 관한 두 가지 유용한 모드를 설명합니다.
책임성의 또 다른 측면은 해석 가능성입니다. 해석 가능성은 사람이 예측으로 이어지는 특성을 식별할 수 있는 ML 모델 결정을 이해하는 것을 말합니다. 또한 설명 가능성은 모델의 자동화된 결정을 인간이 이해할 수 있는 방식으로 설명할 수 있는 능력입니다.
사람 + AI 가이드북의 설명 가능성 + 신뢰 섹션에서 AI 시스템에 대한 사용자 신뢰 구축에 대해 자세히 알아보세요.
Google의 설명 가능성 리소스에서 실제 사례와 권장사항을 확인할 수도 있습니다.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-02-25(UTC)
[null,null,["최종 업데이트: 2025-02-25(UTC)"],[[["Accountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior."],["Transparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets."],["Interpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions."],["Fostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources."]]],[]]