Keadilan

Mengevaluasi model machine learning (ML) secara bertanggung jawab membutuhkan lebih dari sekadar menghitung metrik kerugian secara keseluruhan. Sebelum model diproduksi, sangat penting untuk mengaudit data pelatihan dan mengevaluasi prediksi untuk bias.

Modul ini melihat berbagai jenis bias manusia yang dapat muncul dalam data pelatihan. Kemudian, modul ini memberikan strategi untuk mengidentifikasi dan memitigasi bias tersebut, lalu mengevaluasi performa model dengan mempertimbangkan keadilan.