Adalet

Adalet, algoritmik karar verme yoluyla son kullanıcıların ırk, gelir, cinsel yönelim veya cinsiyet gibi hassas özelliklerle ilgili olarak yaşayabileceği olası farklı sonuçları ele alır. Örneğin, işe alım algoritması, belirli bir cinsiyet veya etnik kökenle ilişkili adlara sahip adaylara karşı veya bu adayları destekleyen önyargılara sahip olabilir mi?

Makine öğrenimi sistemlerinin insan önyargısına nasıl açık olabileceği hakkında daha fazla bilgiyi bu videoda bulabilirsiniz:

Google Arama ve Google Fotoğraflar gibi ürünlerin, Monk Skin Tone Scale aracılığıyla ten rengi temsili çeşitliliğini nasıl artırdığı hakkında bilgi edinmek için gerçek hayattan bir örnek okuyun.

Modellerdeki önyargıyı tanımlamak, ölçmek ve azaltmak için güvenilir yöntemler vardır. Makine Öğrenimi Hızlandırılmış Kursu'nun Adalet modülünde adalet ve önyargıyı azaltma teknikleri ayrıntılı olarak ele alınır.

People + AI Research (PAIR), bu kavramları açıklamak için Önyargısızlığı Ölçme ve Gizli Önyargı hakkında etkileşimli Yapay Zeka Açıklamaları sunar. Makine öğreniminde adaletle ilgili daha fazla terim için Machine Learning Glossary: Fairness | Google for Developers (Makine Öğrenimi Sözlüğü: Adalet | Geliştiriciler İçin Google) başlıklı makaleyi inceleyin.