Adalet
Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Adalet, algoritmik karar verme yoluyla son kullanıcıların ırk, gelir, cinsel yönelim veya cinsiyet gibi hassas özelliklerle ilgili olarak yaşayabileceği olası farklı sonuçları ele alır. Örneğin, işe alım algoritması, belirli bir cinsiyet veya etnik kökenle ilişkili adlara sahip adaylara karşı veya bu adayları destekleyen önyargılara sahip olabilir mi?
Makine öğrenimi sistemlerinin insan önyargısına nasıl açık olabileceği hakkında daha fazla bilgiyi bu videoda bulabilirsiniz:
Google Arama ve Google Fotoğraflar gibi ürünlerin, Monk Skin Tone Scale aracılığıyla ten rengi temsili çeşitliliğini nasıl artırdığı hakkında bilgi edinmek için gerçek hayattan bir örnek okuyun.
Modellerdeki önyargıyı tanımlamak, ölçmek ve azaltmak için güvenilir yöntemler vardır. Makine Öğrenimi Hızlandırılmış Kursu'nun Adalet modülünde adalet ve önyargıyı azaltma teknikleri ayrıntılı olarak ele alınır.
People + AI Research (PAIR), bu kavramları açıklamak için Önyargısızlığı Ölçme ve Gizli Önyargı hakkında etkileşimli Yapay Zeka Açıklamaları sunar.
Makine öğreniminde adaletle ilgili daha fazla terim için Machine Learning Glossary:
Fairness | Google for Developers (Makine Öğrenimi Sözlüğü: Adalet | Geliştiriciler İçin Google) başlıklı makaleyi inceleyin.
Aksi belirtilmediği sürece bu sayfanın içeriği Creative Commons Atıf 4.0 Lisansı altında ve kod örnekleri Apache 2.0 Lisansı altında lisanslanmıştır. Ayrıntılı bilgi için Google Developers Site Politikaları'na göz atın. Java, Oracle ve/veya satış ortaklarının tescilli ticari markasıdır.
Son güncelleme tarihi: 2025-07-27 UTC.
[null,null,["Son güncelleme tarihi: 2025-07-27 UTC."],[[["\u003cp\u003eFairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions.\u003c/p\u003e\n"],["\u003cp\u003eMachine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR).\u003c/p\u003e\n"]]],[],null,["# Fairness\n\n\u003cbr /\u003e\n\n**Fairness** addresses the possible disparate outcomes end users may experience\nrelated to sensitive characteristics such as race, income, sexual orientation,\nor gender through algorithmic decision-making. For example, might a hiring\nalgorithm have biases for or against applicants with names associated with a\nparticular gender or ethnicity?\n\nLearn more about how machine learning systems might be susceptible to human bias\nin this video: \n\n\u003cbr /\u003e\n\nFor a real world example, read about how products such as Google Search and\nGoogle Photos improved diversity of skin tone representation through the\n[Monk Skin Tone Scale](https://blog.google/products/search/monk-skin-tone-scale/).\n\nThere are reliable methods of identifying, measuring, and mitigating bias in models. The [Fairness](/machine-learning/crash-course/fairness)\nmodule of [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course)\nprovides an in-depth look at fairness and bias mitigation techniques.\n\n[People + AI Research](https://pair.withgoogle.com/) (PAIR) offers interactive\nAI Explorables on [Measuring Fairness](https://pair.withgoogle.com/explorables/measuring-fairness/)\nand [Hidden Bias](https://pair.withgoogle.com/explorables/hidden-bias/) to walk\nthrough these concepts.\nFor more terms related to ML Fairness, see [Machine Learning Glossary:\nFairness \\| Google for Developers](https://developers.google.com/machine-learning/glossary/fairness)."]]