Adalet

Adil olma, son kullanıcıların algoritmik karar verme yoluyla ırk, gelir, cinsel yönelim veya cinsiyet gibi hassas özelliklerle ilgili olarak yaşayabileceği farklı sonuçları ele alır. Örneğin, bir işe alım algoritması belirli bir cinsiyet veya etnik kökenle ilişkili adlara sahip adaylara karşı önyargılı olabilir mi?

Makine öğrenimi sistemlerinin insan önyargılarına nasıl açık olabileceği hakkında daha fazla bilgiyi aşağıdaki videoda bulabilirsiniz:

Gerçek bir örnek olarak Google Arama ve Google Fotoğraflar gibi ürünlerin Monk Skin Tone Scale ile ten rengi temsilinin çeşitliliğini nasıl iyileştirdiği hakkında bilgi edinin.

Modellerdeki önyargıları tespit etmek, ölçmek ve azaltmak için güvenilir yöntemler vardır. Makine Öğrenimi Hızlandırılmış Kursu'nun Adalet modülü, adalet ve önyargıyı azaltma tekniklerine derinlemesine bir bakış sunar.

People + AI Research (PAIR), bu kavramları açıklamak için Adiliyeti Ölçme ve Gizli Önyargı ile ilgili etkileşimli yapay zeka keşifleri sunar. Makine öğrenimi adaletiyle ilgili daha fazla terim için Machine Learning Glossary: Fairness | Google for Developers (Makine Öğrenimi Terimleri Sözlüğü: Adalet | Geliştiriciler İçin Google) başlıklı makaleyi inceleyin.