Sejauh ini, diskusi kita tentang metrik keadilan mengasumsikan bahwa pelatihan kami dan contoh pengujian berisi data demografis yang komprehensif untuk demografi, subkelompok yang dievaluasi. Namun, sering kali tidak demikian.
Misalkan set data penerimaan kita tidak berisi data demografi lengkap. Sebaliknya, keanggotaan grup demografis dicatat hanya untuk sebagian kecil contoh, seperti siswa yang memilih untuk mengidentifikasi diri mereka sendiri saya bergabung. Dalam hal ini, perincian kelompok kandidat menjadi pernyataan yang disetujui dan siswa yang ditolak kini akan terlihat seperti ini:
![Kelompok kandidat yang terdiri dari 100 siswa, dibagi menjadi dua kelompok:
Kandidat yang Ditolak (80 ikon siswa) dan Kandidat yang Diterima (20
ikon siswa). Semua ikon diarsir abu-abu (menandakan bahwa ikon
grup demografi tidak diketahui), kecuali 6 ikon. Dalam Daftar Ditolak
kelompok, dua ikon siswa diarsir dengan warna biru dan dua ikon siswa berarsir
oranye. Dalam kelompok Menerima, satu ikon siswa berarsir biru dan satu lagi adalah
oranye berarsir.](https://developers.google.cn/static/machine-learning/crash-course/fairness/images/fairness_metrics_counterfactual_candidate_pool.png?authuser=1&hl=id)
Di sini, kita tidak dapat mengevaluasi prediksi model untuk paritas atau kesetaraan peluang, karena kita tidak memiliki data demografis untuk 94% contoh. Namun, untuk 6% contoh yang berisi fitur demografis, kita masih dapat membandingkan pasangan prediksi (kandidat mayoritas vs. kandidat minoritas) dan lihat apakah mereka telah diperlakukan secara setara oleh model.
Misalnya, kita telah meninjau data fitur secara menyeluruh tersedia untuk dua kandidat (satu dalam kelompok mayoritas dan satu di kelompok minoritas kelompok, dengan keterangan bintang pada gambar di bawah), dan telah menetapkan bahwa mereka sama kualifikasinya untuk diterima dalam segala hal. Jika model membuat prediksi yang sama untuk kedua kandidat ini (yaitu, keduanya menolak kandidat atau menerima kedua kandidat), hal ini dikatakan memenuhi kontrafaktual perlakuan yang adil untuk contoh-contoh ini. Keadilan kontrafaktual menyatakan bahwa dua contoh yang identik dalam segala hal, kecuali atribut sensitif tertentu (di sini, keanggotaan grup demografis), seharusnya menghasilkan model yang sama prediksi.
![Kumpulan kandidat yang sama seperti dalam gambar sebelumnya, kecuali di
versi ini, satu ikon siswa berwarna biru (milik kelompok mayoritas) dan
satu ikon siswa berwarna oranye (termasuk kelompok minoritas) di bagian Ditolak
grup ini diberi anotasi dengan bintang, yang
menunjukkan bahwa kedua kandidat ini
identik (selain dari kelompok demografis).](https://developers.google.cn/static/machine-learning/crash-course/fairness/images/fairness_metrics_counterfactual_satisfied.png?authuser=1&hl=id)
Manfaat dan kekurangan
Seperti yang disebutkan sebelumnya, salah satu manfaat utama dari keadilan kontrafaktual adalah dapat digunakan untuk mengevaluasi prediksi keadilan dalam banyak kasus di mana metrik lain tidak memungkinkan. Jika {i>dataset<i} tidak berisi kumpulan informasi yang lengkap nilai fitur untuk atribut grup relevan yang dipertimbangkan, fitur ini tidak dapat mengevaluasi perlakuan yang adil menggunakan paritas demografis atau kesetaraan peluang. Namun, jika atribut grup ini tersedia untuk subkumpulan contoh, dan mengidentifikasi pasangan ekuivalen yang sebanding dalam berbagai kelompok, praktisi dapat menggunakan keadilan kontrafaktual sebagai metrik untuk memeriksa model potensi bias dalam prediksi.
Selain itu, karena metrik seperti paritas demografis dan kesetaraan menilai peluang secara agregat, mereka dapat menyamarkan masalah bias yang model pada level prediksi individu, yang dapat ditampilkan dengan evaluasi menggunakan keadilan kontrafaktual. Misalnya, anggaplah penerimaan kami menerima kandidat yang memenuhi syarat dari kelompok mayoritas dan minoritas kelompok dengan proporsi yang sama, tetapi kandidat minoritas yang paling memenuhi syarat adalah ditolak sedangkan kandidat mayoritas paling memenuhi syarat yang memiliki kesamaan kredensial diterima. Analisis keadilan kontrafaktual dapat membantu mengidentifikasi perbedaan semacam ini sehingga dapat ditangani.
Di sisi lain, kelemahan utama dari keadilan kontrafaktual adalah bahwa ia tidak memberikan pandangan bias secara holistik dalam prediksi model. Mengidentifikasi dan memperbaiki sejumlah ketidaksetaraan dalam beberapa contoh mungkin tidak cukup untuk mengatasi masalah bias sistemik yang mempengaruhi seluruh subkelompok contoh.
Jika memungkinkan, praktisi dapat mempertimbangkan untuk melakukan analisis keadilan (menggunakan metrik seperti paritas demografis atau kesetaraan serta analisis keadilan kontrafaktual untuk mendapatkan berbagai wawasan tentang potensi masalah bias yang perlu diperbaiki.
Latihan: Memeriksa pemahaman Anda
![Gambar Latihan. Dua kelompok lingkaran: Negatif
Prediksi dan Prediksi Positif.
Prediksi Negatif terdiri dari 50 lingkaran:
39 lingkaran abu-abu, 8 lingkaran biru, dan 3 lingkaran oranye. paket Premium AI
lingkaran biru berlabel 'A', satu lingkaran oranye berlabel 'A',
dan satu lingkaran biru berlabel 'C'.
Prediksi Positif terdiri dari 15 lingkaran:
10 lingkaran abu-abu, 3 lingkaran biru, dan 2 lingkaran
lingkaran oranye. Satu lingkaran biru berlabel 'B', satu lingkaran oranye
lingkaran berlabel 'B', dan satu lingkaran biru berlabel 'C'.
Legenda di bawah diagram menyatakan bahwa lingkaran biru mewakili
contoh di kelompok mayoritas, lingkaran oranye mewakili
contoh dalam kelompok minoritas, dan lingkaran abu-abu mewakili
contoh yang keanggotaan grupnya tidak diketahui](https://developers.google.cn/static/machine-learning/crash-course/fairness/images/fairness_metrics_counterfactual_exercise_diagram.png?authuser=1&hl=id)
Dalam set prediksi pada Gambar 7 di atas, yang mana pasangan identik berikut (tidak termasuk keanggotaan grup) menerima prediksi yang melanggar keadilan kontrafaktual?
Ringkasan
Keseimbangan demografi, kesetaraan peluang, dan kontrafaktual, masing-masing memberikan definisi matematis yang berbeda keadilan untuk prediksi model. Dan itulah tiga kemungkinan cara mengukur keadilan. Beberapa definisi tentang keadilan bahkan saling mendukung tidak kompatibel, artinya tidak mungkin untuk memuaskan mereka secara bersamaan terhadap prediksi model yang diberikan.
Jadi, bagaimana cara memilih informasi yang "tepat" metrik keadilan untuk model Anda? Anda harus mempertimbangkan konteks penggunaan data tersebut dan tujuan menyeluruh yang Anda ingin mereka capai. Misalnya, tujuan untuk mencapai representasi yang setara (dalam hal ini, paritas demografis mungkin merupakan metrik yang optimal) atau apakah mencapai kesempatan yang sama (di sini, kesetaraan kesempatan mungkin yang terbaik metrik)?
Untuk mempelajari Keadilan ML lebih lanjut dan mempelajari masalah ini secara lebih mendalam, lihat Fairness and Machine Learning: Restriction and Opportunities oleh Solon Barocas, Moritz Hardt, dan Arvind Narayanan.