Pernah menjadi sumber bias telah diidentifikasi dalam data pelatihan, kita dapat mengambil langkah proaktif untuk memitigasi dampaknya. Ada dua strategi utama bahwa machine learning (ML) yang biasa digunakan insinyur/perekayasa untuk memperbaiki bias:
- Meningkatkan data pelatihan.
- Menyesuaikan fungsi kerugian model.
Memperkaya data pelatihan
Jika audit data pelatihan telah menemukan masalah terkait data pelatihan yang hilang, atau data yang condong, cara paling mudah untuk mengatasi masalah itu adalah untuk mengumpulkan data tambahan.
Meskipun penambahan data pelatihan adalah ide yang ideal, sisi negatif dari pendekatan ini adalah bahwa hal itu juga tidak mungkin dilakukan, baik karena kurangnya data atau batasan sumber daya yang tersedia yang menghambat pengumpulan data. Misalnya, mengumpulkan lebih banyak data mungkin mahal, memakan waktu, atau tidak layak karena pembatasan hukum/privasi.
Menyesuaikan fungsi pengoptimalan model
Dalam kasus di mana pengumpulan data pelatihan tambahan tidak memungkinkan, pendekatan untuk memitigasi bias adalah menyesuaikan cara menghitung kerugian selama model pelatihan. Kami biasanya menggunakan fungsi pengoptimalan seperti kerugian log untuk mengganjar model yang salah terhadap prediksi yang di-output oleh model. Namun, kerugian log tidak membawa keanggotaan subgrup ke dalam pertimbangan. Jadi, alih-alih menggunakan kerugian log, kita dapat memilih yang dirancang untuk menghukum kesalahan dengan cara yang sadar keadilan yang melawan ketidakseimbangan yang telah kita identifikasi dalam data pelatihan.
Library TensorFlow Model Remediation menyediakan utilitas untuk menerapkan dua berbagai teknik mitigasi bias selama pelatihan model:
MinDiff: MinDiff bertujuan menyeimbangkan error untuk dua bagian data yang berbeda (siswa laki-laki/perempuan versus non-biner) dengan menambahkan penalti untuk perbedaan distribusi prediksi pada kedua kelompok.
Penyambungan Logit Kontrafaktual: Counterfactual Logit Pairing (CLP) bertujuan untuk memastikan bahwa mengubah dari contoh tertentu tidak mengubah prediksi model untuk atribut tersebut contoh. Misalnya, jika {i>dataset<i} pelatihan berisi dua contoh yang nilai fitur identik, kecuali yang memiliki nilai
gender
male
dan yang lain memiliki nilaigender
nonbinary
, CLP akan menambahkan penalti jika prediksi untuk kedua contoh ini berbeda.
Teknik yang Anda pilih untuk menyesuaikan fungsi pengoptimalan adalah bergantung pada kasus penggunaan model. Pada bagian selanjutnya, kita akan melakukan mempelajari lebih lanjut pendekatan tugas untuk mengevaluasi keadilan model dengan mempertimbangkan kasus penggunaan tersebut.