Keadilan

Untuk mengevaluasi model machine learning (ML) secara bertanggung jawab, Anda harus melakukan lebih dari hanya menghitung metrik kerugian secara keseluruhan. Sebelum memproduksi model, sangat penting untuk mengaudit data pelatihan dan mengevaluasi prediksi untuk bias.

Modul ini membahas berbagai jenis bias manusia yang dapat muncul dalam data pelatihan. Langkah ini kemudian menyediakan strategi untuk mengidentifikasi dan memitigasi mereka, lalu mengevaluasi performa model dengan mempertimbangkan keadilan.