Keadilan
Keadilan mengatasi kemungkinan hasil yang berbeda yang mungkin dialami pengguna akhir terkait karakteristik sensitif seperti ras, pendapatan, orientasi seksual, atau gender melalui pengambilan keputusan algoritme. Misalnya, apakah algoritma rekrutmen memiliki bias untuk atau terhadap pelamar dengan nama yang terkait dengan gender atau etnis tertentu?
Pelajari lebih lanjut bagaimana sistem machine learning mungkin rentan terhadap bias manusia dalam video ini:
Untuk contoh di dunia nyata, baca tentang cara produk seperti Google Penelusuran dan Google Foto meningkatkan keberagaman representasi warna kulit melalui Monk Skin Tone Scale.
Ada metode yang andal untuk mengidentifikasi, mengukur, dan mengurangi bias dalam model. Modul Keadilan dari Kursus Singkat Machine Learning memberikan gambaran mendalam tentang keadilan dan teknik mitigasi bias.
People + AI Research (PAIR) menawarkan Explorable AI interaktif tentang Mengukur Keadilan dan Bias Tersembunyi untuk membahas konsep ini. Untuk istilah lainnya yang terkait dengan Keadilan ML, lihat Glosarium Machine Learning: Keadilan | Google untuk Developer.