Makine Öğrenimi Sözlüğü: Adalet

Bu sayfada adaletle ilgili terimler yer almaktadır. Tüm terimler için burayı tıklayın.

A

özellik

#fairness

Özellik ile eş anlamlıdır.

Makine öğrenimi adaletinde özellikler genellikle bireylerle ilgili özelliklere atıfta bulunur.

otomasyon önyargısı

#fairness

Karar veren gerçek kişi, otomatik karar verme sistemi hata yaptığında bile otomatik karar verme sistemi tarafından yapılan önerileri, otomasyon olmadan oluşturulan bilgilere tercih ettiğinde.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

B

önyargı (etik/adalet)

#fairness
#fundamentals

1. Bazı şeylere, kişilere veya gruplara karşı kalıp yargı, önyargı ya da diğerlerinden üstünlük gösterme Bu önyargılar, verilerin toplanmasını ve yorumlanmasını, sistemin tasarımını ve kullanıcıların sistemle etkileşimini etkileyebilir. Bu tür yanlılık örnekleri şunlardır:

2. Örnekleme veya raporlama prosedürü nedeniyle ortaya çıkan sistematik hata. Bu tür yanlılık örnekleri şunlardır:

Makine öğrenimi modellerindeki önyargı terimi veya tahmin önyargısı ile karıştırılmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

C

doğrulama yanlılığı

#fairness

Bilgileri önceden var olan inançları veya hipotezleri doğrulayacak şekilde arama, yorumlama, tercih etme ve hatırlama eğilimi. Makine öğrenimi geliştiricileri, yanlışlıkla verileri mevcut inançlarını destekleyen bir sonucu etkileyecek şekilde toplayabilir veya etiketleyebilir. Doğrulama yanlılığı, örtülü önyargı biçimlerinden biridir.

Deneysel yanlılık, deneysel araştırmacının önceden var olan bir hipotez doğrulanana kadar modelleri eğitmeye devam ettiği bir doğrulama yanlılığı biçimidir.

karşıt gerçeklik adaleti

#fairness

Bir sınıflandırıcının, bir veya daha fazla hassas özellik dışında, bir kişi için ilk kişiyle aynı olan başka bir kişi için aynı sonucu verip vermediğini kontrol eden bir adaletlilik metriği. Bir sınıflandırıcıyı karşıt gerçeklik adaleti açısından değerlendirmek, bir modeldeki olası önyargı kaynaklarını ortaya çıkarmanın yöntemlerinden biridir.

Daha fazla bilgi için aşağıdakilerden birini inceleyin:

kapsam yanlılığı

#fairness

Seçim yanlılığı konusuna bakın.

D

demografik eşitlik

#fairness

Bir modelin sınıflandırmasının sonuçları belirli bir hassas özelliğe bağlı değilse karşılanan bir adaletlilik metriği.

Örneğin, hem Lilliputlular hem de Brobdingnaglılar Glubbdubdrib Üniversitesi'ne başvurursa, bir grubun diğerinden ortalama olarak daha nitelikli olup olmadığına bakılmaksızın, kabul edilen Lilliputlular yüzdesi ile kabul edilen Brobdingnaglılar yüzdesi aynıysa demografik eşitlik sağlanır.

Eşit olasılıklar ve fırsat eşitliği ile karşılaştırıldığında, toplu sınıflandırma sonuçlarının hassas özelliklere bağlı olmasına izin verir ancak belirli belirtilen gerçek doğruluk etiketlerinin sınıflandırma sonuçlarının hassas özelliklere bağlı olmasına izin vermez. Demografik eşitlik için optimizasyon yaparken yapılan ödünleri gösteren bir görselleştirme için "Daha akıllı makine öğrenimiyle ayrımcılığa karşı mücadele etme" başlıklı makaleyi inceleyin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Adil olma: demografik eşitlik bölümüne bakın.

farklı etki

#fairness

Farklı nüfus alt gruplarını orantısız bir şekilde etkileyen kararlar almak Bu genellikle, algoritmik karar verme sürecinin bazı alt gruplara diğerlerinden daha fazla zarar verdiği veya bu gruplara diğerlerinden daha fazla fayda sağladığı durumları ifade eder.

Örneğin, bir Lilliputian'ın minyatür ev kredisi almaya uygunluğunu belirleyen bir algoritmanın, posta adresi belirli bir posta kodunu içeriyorsa kullanıcıyı "uygun değil" olarak sınıflandırma olasılığının daha yüksek olduğunu varsayalım. Büyük endian Lilliputians'ın bu posta koduna sahip posta adreslerine sahip olma olasılığı küçük endian Lilliputians'a kıyasla daha yüksekse bu algoritma farklı bir etkiyle sonuçlanabilir.

Alt grup özellikleri algoritmik bir karar verme sürecine açık girişler olduğunda ortaya çıkan farklılıklara odaklanan farklı muamele ile karşılaştırın.

farklı muamele

#fairness

Kişilerin hassas özelliklerini algoritmik bir karar verme sürecine dahil ederek farklı insan alt gruplarına farklı şekilde davranılması.

Örneğin, Lilliputian'ların kredi başvurularında sağladıkları verilere göre minyatür ev kredisi almaya uygunluklarını belirleyen bir algoritma düşünün. Algoritma, girdi olarak Lilliputian'ın Big-Endian veya Little-Endian olarak ilişkisini kullanıyorsa bu boyut boyunca farklı bir işlem gerçekleştiriyor demektir.

Bu, algoritmik kararların alt gruplar üzerindeki toplumsal etkilerindeki farklılıklara odaklanan farklı etkiye kıyasla farklıdır. Bu alt gruplar, modele giriş olup olmadığına bakılmaksızın dikkate alınır.

E

fırsat eşitliği

#fairness

Bir modelin, hassas bir özelliğin tüm değerleri için istenen sonucu eşit derecede iyi tahmin edip etmediğini değerlendirmek üzere kullanılan bir adaletlilik metriği. Diğer bir deyişle, bir model için istenen sonuç pozitif sınıf ise hedef, gerçek pozitif oranının tüm gruplar için aynı olmasını sağlamaktır.

Fırsat eşitliği, eşitleştirilmiş olasılıklar ile ilgilidir. Bu, hem gerçek pozitif oranlarının hem de yanlış pozitif oranlarının tüm gruplar için aynı olmasını gerektirir.

Glubbdubdrib Üniversitesi'nin hem Lilliputian'ları hem de Brobdingnag'ları titiz bir matematik programına kabul ettiğini varsayalım. Lilliput'un ortaokullarında zengin bir matematik müfredatı sunulur ve öğrencilerin büyük çoğunluğu üniversite programına uygundur. Brobdingnag'ın ortaokullarında matematik dersleri hiç verilmez. Bu nedenle, öğrencilerinin çok azı bu programa uygundur. Lilliputian veya Brobdingnagian olmalarına bakılmaksızın, uygun öğrencilerin kabul edilme olasılığı eşitse vatandaşlığa göre tercih edilen "kabul edildi" etiketi için fırsat eşitliği sağlanır.

Örneğin, Glubbdubdrib Üniversitesi'ne 100 Lilliput ve 100 Brobdingnag öğrenci başvurduğunu ve kabul kararlarının aşağıdaki gibi alındığını varsayalım:

Tablo 1. Lilliputian başvuru sahipleri (%90'ı uygundur)

  Uygun Uygun Değil
Kabul edildi 45 3
Reddedildi 45 7
Toplam 90 10
Kabul edilen uygun öğrencilerin yüzdesi: 45/90 =%50
Kabul edilmeyen uygun olmayan öğrencilerin yüzdesi: 7/10 =%70
Kabul edilen Lilliputian öğrencilerin toplam yüzdesi: (45+3)/100 = %48

 

Tablo 2. Dev başvuru sahipleri (%10'u uygundur):

  Uygun Uygun Değil
Kabul edildi 5 9
Reddedildi 5 81
Toplam 10 90
Kabul edilen uygun öğrencilerin yüzdesi: 5/10 =%50
Kabul edilmeyen uygun olmayan öğrencilerin yüzdesi: 81/90 =%90
Kabul edilen Brobdingnagian öğrencilerin toplam yüzdesi: (5+9)/100 = %14

Yukarıdaki örneklerde, uygun Lilliput ve Brobdingnag vatandaşlarının kabul edilme şansı% 50 olduğundan uygun öğrencilerin kabulü için fırsat eşitliği sağlanmaktadır.

Fırsat eşitliği sağlanmış olsa da aşağıdaki iki adalet metriği sağlanmamıştır:

  • Demografik eşitlik: Lilliput ve Brobdingnag sakinleri üniversiteye farklı oranlarda kabul edilir. Lilliput sakinlerinin% 48'i, Brobdingnag sakinlerinin ise yalnızca% 14'ü kabul edilir.
  • Eşit olasılıklar: Uygun Lilliput ve Brobdingnag öğrencilerinin kabul edilme şansı aynı olsa da, uygun olmayan Lilliput ve Brobdingnag öğrencilerinin reddedilme şansının da aynı olması koşulu karşılanmaz. Uygun olmayan Lilliputian'ların ret oranı% 70 iken uygun olmayan Brobdingnag'ların ret oranı% 90'tır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Adil olma: Fırsat eşitliği bölümüne bakın.

eşitlenmiş oranlar

#fairness

Bir modelin, yalnızca bir sınıfa değil, hem pozitif sınıf hem de negatif sınıf ile ilgili olarak hassas bir özelliğin tüm değerleri için sonuçları eşit derecede iyi tahmin edip etmediğini değerlendirmek üzere kullanılan adalet metriği. Diğer bir deyişle, hem doğru pozitif oranı hem de yanlış negatif oranı tüm gruplar için aynı olmalıdır.

Eşitlenmiş oranlar, yalnızca tek bir sınıfın (pozitif veya negatif) hata oranlarına odaklanan fırsat eşitliği ile ilgilidir.

Örneğin, Glubbdubdrib Üniversitesi'nin hem Lilliputluları hem de Brobdingnaglıları sıkı bir matematik programına kabul ettiğini varsayalım. Lilliputians'ın ortaokullarında zengin bir matematik müfredatı sunulur ve öğrencilerin büyük çoğunluğu üniversite programına uygundur. Brobdingnag'ın ortaokullarında hiç matematik dersi verilmez. Bu nedenle, öğrencilerinin çok azı bu programa uygundur. Eşitlenmiş olasılıklar, başvuru sahibinin Lilliputian veya Brobdingnagian olması fark etmeksizin, uygun olan adayların programa kabul edilme olasılığının eşit olması ve uygun olmayan adayların reddedilme olasılığının eşit olması koşuluyla sağlanır.

Glubbdubdrib Üniversitesi'ne 100 Lilliput ve 100 Brobdingnag öğrenci başvurduğunu ve kabul kararlarının aşağıdaki şekilde alındığını varsayalım:

Tablo 3. Lilliputian başvuru sahipleri (%90'ı uygundur)

  Uygun Uygun Değil
Kabul edildi 45 2
Reddedildi 45 8
Toplam 90 10
Kabul edilen uygun öğrencilerin yüzdesi: 45/90 =%50
Kabul edilmeyen uygunsuz öğrencilerin yüzdesi: 8/10 =%80
Kabul edilen Lilliputian öğrencilerin toplam yüzdesi: (45+2)/100 = %47

 

Tablo 4. Dev başvuru sahipleri (%10'u uygundur):

  Uygun Uygun Değil
Kabul edildi 5 18
Reddedildi 5 72
Toplam 10 90
Kabul edilen uygun öğrencilerin yüzdesi: 5/10 =%50
Kabul edilmeyen uygun olmayan öğrencilerin yüzdesi: 72/90 =%80
Kabul edilen Brobdingnagian öğrencilerin toplam yüzdesi: (5+18)/100 = %23

Uygun Lilliput ve Brobdingnag öğrencilerinin kabul edilme şansı% 50, uygun olmayan Lilliput ve Brobdingnag öğrencilerinin reddedilme şansı ise% 80 olduğundan eşitlenmiş olasılıklar sağlanır.

Eşitlenmiş olasılıklar, "Gözetimli Öğrenmede Fırsat Eşitliği" başlıklı makalede şu şekilde tanımlanmıştır: "Ŷ ve A bağımsızsa, Y koşuluyla Ŷ öngörücüsü, korunan özellik A ve sonuç Y ile ilgili eşitlenmiş olasılıkları karşılar."

deneycinin yanlılığı

#fairness

Doğrulama yanlılığı hakkında bilgi edinin.

C

adalet kısıtlaması

#fairness
Bir veya daha fazla adalet tanımının karşılandığından emin olmak için algoritmaya kısıtlama uygulama Adil olma kısıtlamalarına örnek olarak aşağıdakiler verilebilir:

adalet metriği

#fairness

"Adalet"in ölçülebilir olan matematiksel bir tanımı. Yaygın olarak kullanılan adalet metriklerinden bazıları şunlardır:

Birçok adalet metriği birbirini dışlar. Adalet metriklerinin uyumsuzluğu başlıklı makaleyi inceleyin.

G

grup ilişkilendirme önyargısı

#fairness

Bir kişi için doğru olanın, o gruptaki herkes için de doğru olduğunu varsaymak Veri toplama için kolaylık örneklemesi kullanılıyorsa grup ilişkilendirme önyargısının etkileri daha da kötüleşebilir. Temsil edici olmayan bir örnekte, gerçeği yansıtmayan ilişkilendirmeler yapılabilir.

Ayrıca grup dışı homojenlik önyargısı ve grup içi önyargı hakkında bilgi edinin. Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne de göz atın.

H

geçmiş önyargısı

#fairness

Dünyada zaten var olan ve bir veri kümesine giren bir tür önyargı. Bu önyargılar, mevcut kültürel klişeleri, demografik eşitsizlikleri ve belirli sosyal gruplara karşı önyargıları yansıtma eğilimindedir.

Örneğin, bir kredi başvurucusunun kredisini ödeyip ödemeyeceğini tahmin eden ve 1980'lerden iki farklı topluluktaki yerel bankalardan alınan geçmiş kredi ödememe verileri üzerinde eğitilmiş bir sınıflandırma modeli düşünün. A Topluluğu'ndaki geçmiş başvuru sahiplerinin kredilerini ödememe olasılığı B Topluluğu'ndaki başvuru sahiplerininkine kıyasla altı kat daha yüksekse model, geçmişte bu topluluğun daha yüksek ödememe oranlarına yol açan koşullar artık geçerli olmasa bile A Topluluğu'ndaki kredileri onaylama olasılığının daha düşük olmasına neden olacak bir geçmiş önyargısı öğrenebilir.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

I

örtülü önyargı

#fairness

Kişinin zihinsel modellerine ve anılarına dayalı olarak otomatik olarak ilişkilendirme veya varsayım yapma. Örtük önyargı şunları etkileyebilir:

  • Verilerin nasıl toplandığı ve sınıflandırıldığı.
  • Makine öğrenimi sistemlerinin nasıl tasarlandığı ve geliştirildiği.

Örneğin, bir mühendis, düğün fotoğraflarını tanımlayacak bir sınıflandırıcı oluştururken fotoğrafta beyaz bir elbisenin bulunmasını bir özellik olarak kullanabilir. Ancak beyaz elbiseler yalnızca belirli dönemlerde ve belirli kültürlerde yaygındı.

Doğrulama yanlılığı konusuna da göz atın.

adalet metriklerinin uyumsuzluğu

#fairness

Bazı adalet kavramlarının birbirine uymadığı ve aynı anda karşılanamayacağı fikri. Sonuç olarak, tüm makine öğrenimi sorunlarına uygulanabilecek, adaleti ölçmek için tek bir evrensel metrik yoktur.

Bu durum cesaret kırıcı görünse de adalet metriklerinin uyumsuzluğu, adalet çabalarının sonuç vermediği anlamına gelmez. Bunun yerine, adalet kavramının bağlamsal olarak tanımlanması gerektiğini, böylece kullanım alanlarına özgü zararların önlenmesi gerektiğini öne sürüyor.

Bu konuyla ilgili daha ayrıntılı bir tartışma için "Adil olmanın (im)mkansızlığı hakkında" başlıklı makaleyi inceleyin.

Bireysel adalet

#fairness

Benzer kişilerin benzer şekilde sınıflandırılıp sınıflandırılmadığını kontrol eden bir adalet metriği. Örneğin, Brobdingnagian Akademisi, aynı notlara ve standartlaştırılmış sınav puanlarına sahip iki öğrencinin kabul edilme olasılığının eşit olmasını sağlayarak bireysel adaleti sağlamak isteyebilir.

Bireysel adaletin tamamen "benzerlik"i (bu durumda notlar ve sınav puanları) nasıl tanımladığınıza bağlı olduğunu ve benzerlik metriğiniz önemli bilgileri (ör. bir öğrencinin müfredatının titizliği) göz ardı ederse yeni adalet sorunları ortaya çıkarma riskiyle karşı karşıya kalacağınızı unutmayın.

Bireysel adalet hakkında daha ayrıntılı bilgi için "Farkındalık

grup içi önyargı

#fairness

Kendi grubuna veya özelliklerine taraf tutma Test edenler veya puan verenler makine öğrenimi geliştiricisinin arkadaşları, ailesi veya iş arkadaşlarıysa grup içi önyargı, ürün testini veya veri kümesini geçersiz kılabilir.

Grup içi önyargı, gruba atfetme önyargısının bir türüdür. Ayrıca grup dışı homojenlik önyargısı konusuna da bakın.

Daha fazla bilgi için Makine Öğrenimi Acele Kursu'ndaki Adil olma: Yanlılık türleri bölümüne bakın.

H

yanıt verme önyargısı

#fairness

Seçim yanlılığı konusuna bakın.

O

grup dışı homojenlik önyargısı

#fairness

Tutumları, değerleri, kişilik özelliklerini ve diğer özellikleri karşılaştırırken grup dışındaki üyeleri grup içindeki üyelerden daha benzer olarak görme eğilimi. Gruptaki kullanıcılar, düzenli olarak etkileşimde bulunduğunuz kullanıcıları ifade eder. Gruptaki olmayan kullanıcılar ise düzenli olarak etkileşimde bulunmadığınız kullanıcıları ifade eder. Kullanıcılardan, kendi gruplarının dışındaki kişilerle ilgili özellikler sağlamalarını isteyerek bir veri kümesi oluşturursanız bu özellikler, katılımcıların kendi gruplarındaki kişiler için listeledikleri özelliklerden daha az ayrıntılı ve daha klişe olabilir.

Örneğin, Lilliputlular diğer Lilliputluların evlerini mimari stillerde, pencerelerde, kapılarda ve boyutlarda bulunan küçük farklılıkları belirterek ayrıntılı bir şekilde anlatabilir. Ancak aynı Lilliputlular, Brobdingnaglıların hepsinin aynı evlerde yaşadığını da söyleyebilir.

Grup dışı homojenlik önyargısı, gruba atfetme önyargısının bir türüdür.

Gruptaki önyargı konusuna da bakın.

P

katılım önyargısı

#fairness

Yanıt vermeyenlerin taraflılığı ile eş anlamlıdır. Seçim yanlılığı konusuna bakın.

işleme sonrası

#fairness
#fundamentals

Model çalıştırıldıktan sonra modelin çıktısını ayarlama. Son işlem, modelleri değiştirmeden adaletli olma kısıtlamalarını uygulamak için kullanılabilir.

Örneğin, bir sınıflandırma eşiği ayarlayarak ikili sınıflandırıcıya son işlem uygulayabilirsiniz. Bu sınıflandırma eşiği, gerçek pozitif oranının söz konusu özelliğin tüm değerleri için aynı olduğunu kontrol ederek bazı özelliklerde fırsat eşitliğini korur.

tahmini eşleşme

#fairness

Belirli bir sınıflandırıcı için hassasiyet oranlarının, ele alınan alt gruplar için eşdeğer olup olmadığını kontrol eden bir adaletlilik metriği.

Örneğin, üniversite kabulünü tahmin eden bir model, Lilliputians ve Brobdingnagians için doğruluk oranı aynıysa vatandaşlık için tahmini eşitliği karşılar.

Tahmini eşleşme bazen tahmini ücret eşleşmesi olarak da adlandırılır.

Tahmini eşitlik hakkında daha ayrıntılı bilgi için "Adil Oluş Tanımları Açıklandı" başlıklı makaleyi (3.2.1 numaralı bölüm) inceleyin.

tahmini ücret dengesi

#fairness

Tahmini eşleşme için başka bir ad.

ön işleme

#fairness
Verileri, model eğitmek için kullanılmadan önce işleme Ön işleme, İngilizce metin veri kümesinden İngilizce sözlükte bulunmayan kelimeleri kaldırmak kadar basit veya veri noktalarını hassas özelliklerle mümkün olduğunca çok ilişkili özelliği ortadan kaldıracak şekilde yeniden ifade etmek kadar karmaşık olabilir. Ön işleme, adalet kısıtlamalarını karşılamanıza yardımcı olabilir.

proxy (hassas özellikler)

#fairness
Hassas bir özellik için yedek olarak kullanılan bir özellik. Örneğin, bir kişinin posta kodu, geliri, ırkı veya etnik kökeni için proxy olarak kullanılabilir.

K

raporlama önyargısı

#fairness

Kullanıcıların işlemler, sonuçlar veya özellikler hakkında yazma sıklığının, gerçek hayattaki sıklıkları veya bir özelliğin bir birey sınıfının özelliği olma derecesini yansıtmaması. Raporlamadaki önyargı, makine öğrenimi sistemlerinin öğrendiği verilerin bileşimini etkileyebilir.

Örneğin, kitaplarda güldü kelimesi nefes aldı kelimesinden daha yaygındır. Bir kitap koleksiyonundaki gülme ve nefes alma kelimelerinin göreceli sıklığını tahmin eden bir makine öğrenimi modeli, gülmenin nefes almaktan daha yaygın olduğunu belirler.

S

örnekleme yanlılığı

#fairness

Seçim yanlılığı konusuna bakın.

seçim yanlılığı

#fairness

Verilerde gözlemlenen örnekler ile gözlemlenmeyen örnekler arasında sistematik farklılıklar oluşturan bir seçim süreci nedeniyle örneklenmiş verilerden elde edilen sonuçlarda hatalar. Aşağıdaki seçim yanlılığı biçimleri vardır:

  • Kapsam yanlılığı: Veri kümesinde temsil edilen popülasyon, makine öğrenimi modelinin tahminde bulunduğu popülasyonla eşleşmez.
  • Örnekleme önyargısı: Veriler hedef gruptan rastgele toplanmaz.
  • Yanıt vermeme yanlılığı (katılım yanlılığı olarak da bilinir): Belirli gruplardaki kullanıcılar, anketlere diğer gruplardaki kullanıcılara kıyasla farklı oranlarda kaydolmaz.

Örneğin, kullanıcıların bir filmden ne kadar keyif alacağını tahmin eden bir makine öğrenimi modeli oluşturduğunuzu varsayalım. Eğitim verileri toplamak için, filmin gösterildiği bir sinema salonunun ön sırasına bir anket dağıtırsınız. Bu, ilk bakışta veri kümesi toplama için makul bir yöntem gibi görünebilir. Ancak bu veri toplama şekli, aşağıdaki seçim önyargısı biçimlerini ortaya çıkarabilir:

  • Kapsam yanlılığı: Filmi izlemeyi seçen bir popülasyondan örnek alındığında, modelinizin tahminleri, filmle ilgili bu düzeyde ilgi göstermeyen kullanıcılar için genelleştirilemeyebilir.
  • Örnekleme yanlılığı: Amaçlanan popülasyondan (filmdeki tüm kişiler) rastgele örnekleme yapmak yerine yalnızca ön sıradaki kişileri örneklediniz. Ön sırada oturan kişilerin filmle diğer sıralardakilere kıyasla daha fazla ilgilenmiş olması mümkündür.
  • Yanıt vermeme yanlılığı: Genel olarak, güçlü fikirlere sahip kişiler isteğe bağlı anketlere, fikirleri belirsiz olan kişilere kıyasla daha sık yanıt verir. Film anketi isteğe bağlı olduğundan yanıtların normal (çan şeklinde) dağılım yerine iki modlu dağılım oluşturma olasılığı daha yüksektir.

hassas özellik

#fairness
Yasal, ahlaki, sosyal veya kişisel nedenlerle özel olarak değerlendirilebilecek bir kullanıcı özelliği.

U

farkında olmama (hassas bir özellik hakkında)

#fairness

Hassas özelliklerin mevcut olduğu ancak eğitim verilerine dahil edilmediği bir durum. Hassas özellikler genellikle kullanıcı verilerinin diğer özellikleriyle ilişkili olduğundan, hassas bir özellik hakkında bilgi sahibi olmadan eğitilen bir model, bu özellikle ilgili farklı bir etkiye sahip olabilir veya diğer adalet kısıtlamalarını ihlal edebilir.