공정성

머신러닝 모델을 책임감 있게 평가하려면 단순히 손실 측정항목을 계산하는 것 이상의 작업이 필요합니다. 모델을 프로덕션에 투입하기 전에 학습 데이터를 감사하고 예측 편향을 평가하는 것이 중요합니다.

이 모듈에서는 학습 데이터에서 나타날 수 있는 여러 유형의 인간 편향을 살펴봅니다. 그런 다음 이들을 식별하고 효과를 평가할 수 있는 전략을 제공합니다.

공정성

매장 선반에 놓인 바나나 한 송이
  • 바나나
바나나 한 잔
  • 바나나
  • Sticker
바나나 한 잔
  • 바나나
  • Sticker
  • 선반에 놓인 바나나
바나나 한 잔
  • 녹색 바나나
  • 미숙한 바나나
녹색 바나나 한 잔
  • 너무 익은 바나나
  • 바나나 빵에 좋음
갈색 바나나 한 잔

노란색 바나나

노란색은 바나나의 프로토타입입니다.

노란색 바나나 한 송이
데이터를 수집한 다음 모델을 학습시키고 출력을 생성하는 일반적인 머신러닝 워크플로를 보여주는 다이어그램
데이터에 나타난 두 가지 편향, 즉 데이터에 나타나는 집단 편향 (외부 집단 동질화 편향)과 데이터 수집 및 주석에 영향을 주는 인간 편향 (확인 편향)을 보여주는 다이어그램
  1. 문제 고려
  1. 문제 고려
  2. 전문가에게 문의
  1. 문제 고려
  2. 전문가에게 문의
  3. 편향을 고려하도록 모델 학습
  1. 문제 고려
  2. 전문가에게 문의
  3. 편향을 고려하도록 모델 학습
  4. 결과 해석
  1. 문제 고려
  2. 전문가에게 문의
  3. 편향을 고려하도록 모델 학습
  4. 결과 해석
  5. 컨텍스트를 사용한 게시