Glossar zum maschinellen Lernen: Verantwortungsbewusste KI

Diese Seite enthält Glossarbegriffe zu Responsible AI. Hier finden Sie alle Glossarbegriffe.

A

Attribut

#responsible

Synonym für Funktion.

Beim maschinellen Lernen beziehen sich Attribute oft auf Merkmale von Personen.

Automatisierungsbias

#responsible

Wenn ein menschlicher Entscheidungsträger Empfehlungen eines automatisierten Entscheidungssystems Informationen vorzieht, die ohne Automatisierung erstellt wurden, auch wenn das automatisierte Entscheidungssystem Fehler macht.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Fairness: Types of bias.

B

Bias (Ethik/Fairness)

#responsible
#fundamentals

1. Stereotypisierung, Vorurteile oder Bevorzugung bestimmter Dinge, Personen oder Gruppen gegenüber anderen. Diese Verzerrungen können sich auf die Erhebung und Interpretation von Daten, das Design eines Systems und die Interaktion von Nutzern mit einem System auswirken. Beispiele für diese Art von Bias:

2. Systematischer Fehler, der durch ein Sampling- oder Reportingverfahren eingeführt wird. Beispiele für diese Art von Bias:

Nicht zu verwechseln mit dem Bias-Term in Modellen für maschinelles Lernen oder dem Vorhersage-Bias.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Fairness: Types of bias.

C

Bestätigungsverzerrung

#responsible

Die Tendenz, Informationen so zu suchen, zu interpretieren, zu bevorzugen und abzurufen, dass bereits bestehende Überzeugungen oder Hypothesen bestätigt werden. Entwickler von maschinellem Lernen können Daten unbeabsichtigt so erheben oder labeln, dass ein Ergebnis unterstützt wird, das ihren bestehenden Überzeugungen entspricht. Der Bestätigungsfehler ist eine Form des impliziten Bias.

Experimenter Bias ist eine Form des Bestätigungsfehlers, bei dem ein Experimentator Modelle so lange trainiert, bis eine vorgefasste Hypothese bestätigt wird.

Kontrafaktische Fairness

#responsible
#Messwert

Eine Fairness-Messwert, mit dem geprüft wird, ob ein Klassifizierungsmodell für eine Person das gleiche Ergebnis liefert wie für eine andere Person, die mit der ersten identisch ist, mit Ausnahme von einem oder mehreren vertraulichen Attributen. Die Bewertung eines Klassifizierungsmodells hinsichtlich kontrafaktischer Fairness ist eine Methode, um potenzielle Quellen für Bias in einem Modell aufzudecken.

Weitere Informationen finden Sie hier:

Coverage Bias

#responsible

Weitere Informationen finden Sie unter Stichproben-Bias.

D

demografische Parität

#responsible
#Messwert

Ein Fairness-Messwert, der erfüllt ist, wenn die Ergebnisse der Klassifizierung eines Modells nicht von einem bestimmten sensiblen Attribut abhängen.

Wenn sich beispielsweise sowohl Lilliputaner als auch Brobdingnagianer an der Glubbdubdrib University bewerben, wird demografische Parität erreicht, wenn der Prozentsatz der zugelassenen Lilliputaner dem Prozentsatz der zugelassenen Brobdingnagianer entspricht, unabhängig davon, ob eine Gruppe im Durchschnitt qualifizierter ist als die andere.

Im Gegensatz dazu erlauben Equalized Odds und Equality of Opportunity, dass Klassifizierungsergebnisse insgesamt von sensiblen Attributen abhängen, aber nicht, dass Klassifizierungsergebnisse für bestimmte angegebene Grundwahrheitslabels von sensiblen Attributen abhängen. Im Google Research-Blogpost zum Thema „Diskriminierung durch intelligentes maschinelles Lernen“ finden Sie eine Visualisierung, in der die Kompromisse bei der Optimierung für demografische Parität dargestellt werden.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Fairness: demographic parity.

Ungleichbehandlung

#responsible

Entscheidungen über Personen treffen, die sich unverhältnismäßig auf verschiedene Untergruppen der Bevölkerung auswirken. Dies bezieht sich in der Regel auf Situationen, in denen ein algorithmischer Entscheidungsprozess einigen Untergruppen mehr schadet oder nützt als anderen.

Angenommen, ein Algorithmus, der die Berechtigung eines Lilliputaners für ein Miniaturhausdarlehen bestimmt, klassifiziert ihn eher als „nicht berechtigt“, wenn seine Postanschrift eine bestimmte Postleitzahl enthält. Wenn Big-Endian-Lilliputaner mit höherer Wahrscheinlichkeit Postadressen mit dieser Postleitzahl haben als Little-Endian-Lilliputaner, kann dieser Algorithmus zu ungleichen Auswirkungen führen.

Im Gegensatz dazu konzentriert sich ungleiche Behandlung auf Ungleichheiten, die entstehen, wenn Untergruppenmerkmale explizite Eingaben für einen algorithmischen Entscheidungsprozess sind.

Ungleichbehandlung

#responsible

Die sensiblen Attribute von Testpersonen werden in einen algorithmischen Entscheidungsprozess einbezogen, sodass verschiedene Untergruppen von Personen unterschiedlich behandelt werden.

Angenommen, ein Algorithmus bestimmt die Berechtigung von Lilliputanern für ein Darlehen für ein Miniaturhaus auf Grundlage der Daten, die sie in ihrem Darlehensantrag angeben. Wenn der Algorithmus die Zugehörigkeit eines Lilliputaners als Big-Endian oder Little-Endian als Eingabe verwendet, wird eine ungleiche Behandlung in dieser Dimension vorgenommen.

Im Gegensatz dazu konzentriert sich ungleiche Auswirkungen auf Ungleichheiten bei den gesellschaftlichen Auswirkungen algorithmischer Entscheidungen auf Untergruppen, unabhängig davon, ob diese Untergruppen Eingaben für das Modell sind.

E

Chancengleichheit

#responsible
#Messwert

Ein Fairness-Messwert, um zu bewerten, ob ein Modell das gewünschte Ergebnis für alle Werte eines sensiblen Attributs gleich gut vorhersagt. Wenn das gewünschte Ergebnis für ein Modell die positive Klasse ist, sollte die Rate der richtig positiven Ergebnisse für alle Gruppen gleich sein.

Die Chancengleichheit hängt mit gleichberechtigten Chancen zusammen, bei denen sowohl die Richtig-Positiv-Raten als auch die Falsch-Positiv-Raten für alle Gruppen gleich sein müssen.

Angenommen, die Glubbdubdrib University nimmt sowohl Lilliputaner als auch Brobdingnagianer in ein anspruchsvolles Mathematikprogramm auf. Die weiterführenden Schulen der Lilliputaner bieten einen soliden Lehrplan für Mathematik, und die überwiegende Mehrheit der Schüler ist für das Universitätsprogramm qualifiziert. Die weiterführenden Schulen in Brobdingnag bieten überhaupt keine Mathematikunterricht an, weshalb viel weniger Schüler qualifiziert sind. Chancengleichheit für das bevorzugte Label „zugelassen“ in Bezug auf die Nationalität (Lilliputaner oder Brobdingnagianer) ist gegeben, wenn qualifizierte Studierende unabhängig davon, ob sie Lilliputaner oder Brobdingnagianer sind, mit gleicher Wahrscheinlichkeit zugelassen werden.

Nehmen wir beispielsweise an, dass sich 100 Lilliputaner und 100 Brobdingnagianer für die Glubbdubdrib University bewerben und die Zulassungsentscheidungen wie folgt getroffen werden:

Tabelle 1. Lilliputian-Bewerber (90% sind qualifiziert)

  Qualifiziert Unqualifiziert
Zugelassen 45 3
Abgelehnt 45 7
Gesamt 90 10
Prozentsatz der zugelassenen qualifizierten Studenten: 45/90 = 50%
Prozentsatz der abgelehnten nicht qualifizierten Studenten: 7/10 = 70%
Gesamtprozentsatz der zugelassenen Lilliputian-Studenten: (45+3)/100 = 48%

 

Tabelle 2 Brobdingnagian-Bewerber (10% sind qualifiziert):

  Qualifiziert Unqualifiziert
Zugelassen 5 9
Abgelehnt 5 81
Gesamt 10 90
Prozentsatz der zugelassenen qualifizierten Studenten: 5/10 = 50%
Prozentsatz der abgelehnten nicht qualifizierten Studenten: 81/90 = 90%
Gesamtprozentsatz der zugelassenen Brobdingnagian-Studenten: (5+9)/100 = 14%

Die vorherigen Beispiele erfüllen die Chancengleichheit für die Aufnahme qualifizierter Studierender, da sowohl qualifizierte Lilliputianer als auch Brobdingnagianer eine 50-prozentige Chance haben, aufgenommen zu werden.

Die Gleichheit der Chancen ist erfüllt, die folgenden beiden Fairnessmesswerte jedoch nicht:

  • Demografische Parität: Lilliputaner und Brobdingnagianer werden mit unterschiedlichen Raten an der Universität zugelassen. 48% der Lilliputaner werden zugelassen, aber nur 14% der Brobdingnagianer.
  • Gleiche Chancen: Qualifizierte Lilliputian- und Brobdingnagian-Studenten haben zwar die gleiche Chance, zugelassen zu werden, die zusätzliche Einschränkung, dass nicht qualifizierte Lilliputian- und Brobdingnagian-Studenten die gleiche Chance haben, abgelehnt zu werden, wird jedoch nicht erfüllt. Bei nicht qualifizierten Lilliput-Kandidaten liegt die Ablehnungsrate bei 70 %, bei nicht qualifizierten Brobdingnag-Kandidaten bei 90 %.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Fairness: Equality of opportunity.

ausgeglichene Chancen

#responsible
#Messwert

Ein Fairness-Messwert, mit dem bewertet wird, ob ein Modell Ergebnisse für alle Werte eines sensiblen Attributs in Bezug auf die positive Klasse und die negative Klasse gleichermaßen gut vorhersagt. Mit anderen Worten: Sowohl die Richtig-Positiv-Rate als auch die Falsch-Negativ-Rate sollten für alle Gruppen gleich sein.

Die gleichberechtigten Chancen hängen mit der Chancengleichheit zusammen, die sich nur auf Fehlerraten für eine einzelne Klasse (positiv oder negativ) konzentriert.

Angenommen, die Glubbdubdrib University nimmt sowohl Lilliputaner als auch Brobdingnagianer in ein anspruchsvolles Mathematikprogramm auf. Die weiterführenden Schulen von Lilliput bieten einen umfassenden Lehrplan für Mathematik, und die überwiegende Mehrheit der Schüler ist für das Universitätsprogramm qualifiziert. Die weiterführenden Schulen in Brobdingnag bieten überhaupt keine Mathematikunterricht an, weshalb viel weniger Schüler qualifiziert sind. Die Bedingung „Equalized Odds“ ist erfüllt, wenn ein Bewerber, unabhängig davon, ob er ein Lilliputaner oder ein Brobdingnagianer ist, bei entsprechender Qualifikation mit gleicher Wahrscheinlichkeit für das Programm zugelassen wird und bei fehlender Qualifikation mit gleicher Wahrscheinlichkeit abgelehnt wird.

Angenommen, 100 Lilliputaner und 100 Brobdingnagianer bewerben sich an der Glubbdubdrib University und die Zulassungsentscheidungen werden so getroffen:

Tabelle 3 Lilliputian-Bewerber (90% sind qualifiziert)

  Qualifiziert Unqualifiziert
Zugelassen 45 2
Abgelehnt 45 8
Gesamt 90 10
Prozentsatz der zugelassenen qualifizierten Schüler: 45/90 = 50%
Prozentsatz der abgelehnten nicht qualifizierten Schüler: 8/10 = 80%
Gesamtprozentsatz der zugelassenen Lilliputian-Schüler: (45+2)/100 = 47%

 

Tabelle 4. Brobdingnagian-Bewerber (10% sind qualifiziert):

  Qualifiziert Unqualifiziert
Zugelassen 5 18
Abgelehnt 5 72
Gesamt 10 90
Prozentsatz der zugelassenen qualifizierten Studenten: 5/10 = 50%
Prozentsatz der abgelehnten nicht qualifizierten Studenten: 72/90 = 80%
Gesamtprozentsatz der zugelassenen Brobdingnagian-Studenten: (5+18)/100 = 23%

Die Bedingung „Equalized Odds“ ist erfüllt, da qualifizierte Lilliputaner und Brobdingnagianer beide eine 50-prozentige Chance haben, zugelassen zu werden, und nicht qualifizierte Lilliputaner und Brobdingnagianer eine 80-prozentige Chance haben, abgelehnt zu werden.

„Equalized Odds“ wird in „Equality of Opportunity in Supervised Learning“ formal so definiert: „Der Vorhersagewert Ŷ erfüllt die Bedingung ‚Equalized Odds‘ in Bezug auf das geschützte Attribut A und das Ergebnis Y, wenn Ŷ und A unabhängig sind, bedingt durch Y.“

Experimentatorverzerrung

#responsible

Weitere Informationen finden Sie unter Bestätigungsverzerrung.

F

Fairness-Einschränkung

#responsible
Eine Einschränkung auf einen Algorithmus anwenden, um sicherzustellen, dass eine oder mehrere Definitionen von Fairness erfüllt werden. Beispiele für Fairness-Einschränkungen:

Fairnessmesswert

#responsible
#Messwert

Eine messbare mathematische Definition von „Fairness“. Häufig verwendete Fairness-Messwerte sind:

Viele Fairnessmesswerte schließen sich gegenseitig aus. Weitere Informationen finden Sie unter Inkompatibilität von Fairnessmesswerten.

G

Gruppenattributionsbias

#responsible

Annahme, dass das, was für eine Person gilt, auch für alle anderen in dieser Gruppe gilt. Die Auswirkungen von Group Attribution Bias können verstärkt werden, wenn für die Datenerhebung Convenience Sampling verwendet wird. Bei einer nicht repräsentativen Stichprobe können Attributionen vorgenommen werden, die nicht der Realität entsprechen.

Weitere Informationen finden Sie unter Homogenitätsbias außerhalb der Gruppe und Bias innerhalb der Gruppe. Weitere Informationen finden Sie auch im Machine Learning Crash Course unter Fairness: Types of bias.

H

Historischer Bias

#responsible

Eine Art von Verzerrung, die bereits in der Welt existiert und in ein Dataset gelangt ist. Diese Voreingenommenheiten spiegeln häufig bestehende kulturelle Stereotypen, demografische Ungleichheiten und Vorurteile gegenüber bestimmten sozialen Gruppen wider.

Nehmen wir beispielsweise ein Klassifikationsmodell, das vorhersagt, ob ein Kreditantragsteller seinen Kredit nicht zurückzahlen wird. Es wurde mit historischen Daten zu Kreditausfällen aus den 1980er-Jahren von lokalen Banken in zwei verschiedenen Gemeinden trainiert. Wenn frühere Antragsteller aus Community A sechsmal häufiger mit ihren Krediten in Verzug geraten sind als Antragsteller aus Community B, kann das Modell einen historischen Bias lernen, der dazu führt, dass es weniger wahrscheinlich Kredite in Community A genehmigt, auch wenn die historischen Bedingungen, die zu den höheren Ausfallraten in dieser Community geführt haben, nicht mehr relevant sind.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Fairness: Types of bias.

I

impliziter Bias

#responsible

Automatisch eine Verbindung oder Annahme auf der Grundlage von Denkmodellen und Erinnerungen herstellen. Implizite Voreingenommenheit kann sich auf Folgendes auswirken:

  • Wie Daten erhoben und klassifiziert werden
  • Wie Systeme für maschinelles Lernen konzipiert und entwickelt werden.

Wenn ein Entwickler beispielsweise ein Klassifizierungsmodell zum Erkennen von Hochzeitsfotos erstellt, kann er das Vorhandensein eines weißen Kleides auf einem Foto als Merkmal verwenden. Weiße Kleider waren jedoch nur in bestimmten Epochen und in bestimmten Kulturen üblich.

Siehe auch Bestätigungsbias.

Inkompatibilität von Fairnessmesswerten

#responsible
#Messwert

Die Idee, dass einige Fairnesskonzepte sich gegenseitig ausschließen und nicht gleichzeitig erfüllt werden können. Daher gibt es keinen einzelnen universellen Messwert zur Quantifizierung von Fairness, der auf alle ML-Probleme angewendet werden kann.

Das mag entmutigend klingen, aber die Inkompatibilität von Fairnessmesswerten bedeutet nicht, dass Bemühungen um Fairness vergeblich sind. Stattdessen wird vorgeschlagen, dass Fairness für ein bestimmtes ML-Problem kontextbezogen definiert werden muss, um Schäden zu vermeiden, die für die Anwendungsfälle spezifisch sind.

Eine detailliertere Erläuterung der Inkompatibilität von Fairness-Messwerten finden Sie unter On the (im)possibility of fairness.

Individuelle Fairness

#responsible
#Messwert

Ein Fairness-Messwert, der prüft, ob ähnliche Personen ähnlich klassifiziert werden. Die Brobdingnagian Academy möchte beispielsweise die individuelle Fairness gewährleisten, indem sie dafür sorgt, dass zwei Schüler mit identischen Noten und standardisierten Testergebnissen die gleiche Wahrscheinlichkeit haben, zugelassen zu werden.

Die individuelle Fairness hängt ganz davon ab, wie Sie „Ähnlichkeit“ definieren (in diesem Fall Noten und Testergebnisse). Es besteht das Risiko, dass neue Fairnessprobleme entstehen, wenn Ihr Ähnlichkeitsmesswert wichtige Informationen (z. B. die Strenge des Lehrplans eines Schülers) nicht berücksichtigt.

Eine detailliertere Erläuterung von individueller Fairness finden Sie unter Fairness Through Awareness.

Gruppenintern

#responsible

Bevorzugung der eigenen Gruppe oder der eigenen Merkmale. Wenn Tester oder Bewerter aus Freunden, Familienmitgliedern oder Kollegen des Entwicklers für maschinelles Lernen bestehen, kann die Ingroup-Voreingenommenheit Produkttests oder den Datensatz ungültig machen.

Der In-Group-Bias ist eine Form des Gruppenattributionsbias. Siehe auch Homogenitätsbias außerhalb der Gruppe.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Fairness: Types of bias.

N

Schweigeverzerrung

#responsible

Weitere Informationen finden Sie unter Stichproben-Bias.

O

Homogenitätsbias außerhalb der Gruppe

#responsible

Die Tendenz, Mitglieder der Outgroup als ähnlicher als Mitglieder der Ingroup zu betrachten, wenn Einstellungen, Werte, Persönlichkeitsmerkmale und andere Eigenschaften verglichen werden. In-Group bezieht sich auf Personen, mit denen Sie regelmäßig interagieren, Out-Group auf Personen, mit denen Sie nicht regelmäßig interagieren. Wenn Sie einen Datensatz erstellen, indem Sie Personen bitten, Attribute für Outgroups anzugeben, sind diese Attribute möglicherweise weniger differenziert und stärker stereotypisiert als Attribute, die Teilnehmer für Personen in ihrer Ingroup auflisten.

So könnten Lilliputaner die Häuser anderer Lilliputaner sehr detailliert beschreiben und kleine Unterschiede in Architektur, Fenstern, Türen und Größen anführen. Dieselben Lilliputaner könnten jedoch einfach erklären, dass alle Brobdingnagianer in identischen Häusern leben.

Der Fremdgruppen-Homogenitätsbias ist eine Form des Gruppenattributionsbias.

Siehe auch Gruppenintern.

P

Teilnahmebias

#responsible

Synonym für Non-Response Bias. Weitere Informationen finden Sie unter Stichproben-Bias.

Nachbearbeitung

#responsible
#fundamentals

Die Ausgabe eines Modells wird nach dem Ausführen des Modells angepasst. Mit der Nachbearbeitung lassen sich Fairness-Einschränkungen durchsetzen, ohne die Modelle selbst zu ändern.

Beispielsweise kann die Nachbearbeitung auf ein binäres Klassifikationsmodell angewendet werden, indem ein Klassifikationsschwellenwert festgelegt wird, sodass die Chancengleichheit für ein Attribut aufrechterhalten wird. Dazu wird geprüft, ob die Rate der richtig positiven Ergebnisse für alle Werte dieses Attributs gleich ist.

Prognoseparität

#responsible
#Messwert

Ein Fairness-Messwert, mit dem geprüft wird, ob die Präzisionsraten für die betrachteten Untergruppen für ein bestimmtes Klassifizierungsmodell gleich sind.

Ein Modell, das die Zulassung zum College vorhersagt, würde beispielsweise die Vorhersageparität für die Nationalität erfüllen, wenn die Precision-Rate für Lilliputaner und Brobdingnagianer gleich ist.

Die Vorhersageparität wird manchmal auch als Vorhersageratenparität bezeichnet.

Eine ausführlichere Erläuterung der Vorhersageparität finden Sie im Abschnitt 3.2.1 von Fairness Definitions Explained.

Prognostizierte Ratenparität

#responsible
#Messwert

Ein anderer Name für Vorhersageparität.

Vorverarbeitung

#responsible
Daten werden verarbeitet, bevor sie zum Trainieren eines Modells verwendet werden. Die Vorverarbeitung kann so einfach sein wie das Entfernen von Wörtern aus einem englischen Textkorpus, die nicht im englischen Wörterbuch vorkommen, oder so komplex wie das Umformulieren von Datenpunkten, um so viele Attribute wie möglich zu entfernen, die mit sensiblen Attributen korrelieren. Durch die Vorverarbeitung können Fairnessvorgaben erfüllt werden.

Proxy (vertrauliche Attribute)

#responsible
Ein Attribut, das als Ersatz für ein sensibles Attribut verwendet wird. So kann beispielsweise die Postleitzahl einer Person als Proxy für ihr Einkommen, ihre Rasse oder ihre ethnische Herkunft verwendet werden.

R

Berichtsbias

#responsible

Die Häufigkeit, mit der Menschen über Aktionen, Ergebnisse oder Eigenschaften schreiben, spiegelt nicht ihre tatsächliche Häufigkeit oder den Grad wider, in dem eine Eigenschaft für eine bestimmte Gruppe von Personen charakteristisch ist. Berichtsverzerrungen können die Zusammensetzung der Daten beeinflussen, aus denen Machine-Learning-Systeme lernen.

In Büchern kommt das Wort lachte beispielsweise häufiger vor als atmete. Ein Modell für maschinelles Lernen, das die relative Häufigkeit von Lachen und Atmen in einem Buchkorpus schätzt, würde wahrscheinlich feststellen, dass Lachen häufiger vorkommt als Atmen.

Weitere Informationen finden Sie im Machine Learning Crash Course unter Fairness: Types of bias.

S

Stichprobenverzerrung

#responsible

Weitere Informationen finden Sie unter Stichproben-Bias.

Selection Bias

#responsible

Fehler bei Schlussfolgerungen aus Stichprobendaten aufgrund eines Auswahlverfahrens, das systematische Unterschiede zwischen beobachteten und nicht beobachteten Stichproben in den Daten erzeugt. Es gibt die folgenden Arten von Selection Bias:

  • Coverage Bias: Die im Dataset vertretene Population stimmt nicht mit der Population überein, für die das Modell für maschinelles Lernen Vorhersagen trifft.
  • Stichprobenverzerrung: Daten werden nicht zufällig aus der Zielgruppe erhoben.
  • Bias durch fehlende Antworten (auch Bias durch Teilnahme genannt): Nutzer aus bestimmten Gruppen entscheiden sich mit unterschiedlicher Häufigkeit als Nutzer aus anderen Gruppen gegen die Teilnahme an Umfragen.

Angenommen, Sie erstellen ein ML-Modell, das vorhersagt, wie gut ein Film bei bestimmten Personen ankommt. Um Trainingsdaten zu erheben, verteilen Sie einen Fragebogen an alle Personen in der ersten Reihe eines Kinos, in dem der Film gezeigt wird. Das klingt erst einmal nach einer vernünftigen Methode, um einen Datensatz zu erstellen. Allerdings können bei dieser Art der Datenerhebung die folgenden Arten von Auswahlbias auftreten:

  • Bias durch Abdeckung: Da Sie Stichproben aus einer Bevölkerungsgruppe nehmen, die sich den Film angesehen hat, lassen sich die Vorhersagen Ihres Modells möglicherweise nicht auf Personen übertragen, die nicht bereits ein so hohes Interesse an dem Film gezeigt haben.
  • Stichprobenverzerrung: Anstatt zufällig aus der beabsichtigten Population (alle Personen im Kino) eine Stichprobe zu ziehen, haben Sie nur die Personen in der ersten Reihe ausgewählt. Möglicherweise waren die Personen in der ersten Reihe mehr an dem Film interessiert als die in anderen Reihen.
  • Bias durch fehlende Antworten: Im Allgemeinen reagieren Menschen mit einer starken Meinung häufiger auf optionale Umfragen als Menschen mit einer milden Meinung. Da die Umfrage zum Film optional ist, bilden die Antworten eher eine bimodale Verteilung als eine normale (glockenförmige) Verteilung.

sensibles Attribut

#responsible
Eine menschliche Eigenschaft, die aus rechtlichen, ethischen, sozialen oder persönlichen Gründen besonders berücksichtigt wird.

U

Unkenntnis (eines sensiblen Attributs)

#responsible

Eine Situation, in der vertrauliche Attribute vorhanden sind, aber nicht in den Trainingsdaten enthalten sind. Da sensible Attribute häufig mit anderen Attributen der Daten korrelieren, kann ein Modell, das ohne Berücksichtigung eines sensiblen Attributs trainiert wurde, in Bezug auf dieses Attribut dennoch ungleiche Auswirkungen haben oder andere Fairness-Einschränkungen verletzen.