ML-Modelle sind nicht grundsätzlich objektiv. ML-Anwender Modelle trainieren, indem Sie ihnen ein Dataset mit Trainingsbeispielen bereitstellen der Beteiligung an der Bereitstellung und Zusammenstellung dieser Daten kann dazu beitragen, Vorhersagen, die anfällig für Verzerrungen sind.
Beim Erstellen von Modellen ist es wichtig, sich der allgemeinen menschlichen Voreingenommenheiten bewusst zu sein, die sich in Ihren Daten niederschlagen, damit Sie proaktiv Effekte.
Berichtsverzerrung
-
Definition
Berichtsverzerrung tritt auf, wenn die Häufigkeit in einem Dataset erfasste Ereignisse, Eigenschaften und/oder Ergebnisse ihre tatsächliche Häufigkeit wahrheitsgemäß widerspiegeln. Diese Voreingenommenheit kann entstehen, weil sich Menschen meist darauf konzentrieren, Umstände zu dokumentieren, ungewöhnlich oder einprägsam sein, vorausgesetzt, das Gewöhnliche aufgenommen werden müssen.
-
Beispiel
Ein Sentimentanalyse-Modell wird trainiert, um vorherzusagen, Rezensionen sind aufgrund des Korpus von Nutzern positiv oder negativ auf einer beliebten Website einreichen. Die meisten Bewertungen in den Trainings-Datasets zeigen extreme Meinungen (Rezensenten, die entweder ein Buch geliebt oder gehasst haben), da die Wahrscheinlichkeit, ein Buch rezensieren, wenn sie nicht gut darauf reagieren. Als ist das Modell weniger in der Lage, die Stimmung Rezensionen, die ein Buch in subtileren Formulierungen beschreiben.
Klicken Sie auf . chevron_left für die Definition.
Historische Verzerrung
-
Definition
Historische Verzerrungen treten auf, wenn Verlaufsdaten Ungleichheiten widerspiegelt, die damals in der Welt existierten.
-
Beispiel
Ein Dataset mit Wohnimmobilien aus den 1960er-Jahren enthält Immobilienpreisdaten entspricht diskriminierende Kreditvergabe, die während dieses Zeitraums 100 Jahre.
Klicken Sie auf . chevron_left für die Definition.
Automatisierungsverzerrung
-
Definition
Automatisierungsverzerrung ist eine Tendenz, Ergebnisse zu bevorzugen. die durch automatisierte Systeme generiert wurden, gegenüber solchen, die nicht automatisch generiert wurden. Fehlerraten der einzelnen Systeme.
-
Beispiel
ML-Experten, die für einen Zahnräderhersteller arbeiteten, die neue bahnbrechende das sie trainiert haben, zu stellen, bis die Werksleitung darauf hingewiesen hat, dass die Precision- und Recall-Raten des Modells 15% geringer waren von menschlichen Inspektoren.
Klicken Sie auf . chevron_left für die Definition.
Auswahlverzerrung
Auswahlverzerrung tritt auf, wenn eine dass die Beispiele des Datensatzes so gewählt werden, dass sie nicht und die Verteilung in der realen Welt. Die Auswahlverzerrung kann viele verschiedene Formen haben, etwa Abdeckungs-, Nichtreaktions- und Stichprobenverzerrung.
Coverage Bias
-
Definition
Abdeckungsverzerrung tritt auf, wenn in den repräsentativ sind.
-
Beispiel
Ein Modell wird trainiert, um den zukünftigen Verkauf eines neuen Produkts Telefonumfragen mit einer Stichprobe von Nutzern, die für das Produkt. Verbraucher, die sich stattdessen für den Kauf eines Konkurrenzprodukts entschieden haben wurden nicht befragt, sodass diese Personengruppe die in den Trainingsdaten dargestellt sind.
Klicken Sie auf . chevron_left für die Definition.
Nicht-Antwortverzerrung
-
Definition
Non-response Bias (auch als bezeichnet) Beteiligungsverzerrung) tritt auf, wenn Daten am Ende nicht repräsentativ aufgrund von Beteiligungslücken in der Datenerhebung .
-
Beispiel
Ein Modell wird trainiert, um den zukünftigen Verkauf eines neuen Produkts Telefonumfragen mit einer Stichprobe von Nutzern, die das Produkt und mit einer Stichprobe von Verbraucher*innen, die ein Produkt. Die Verbraucher, die das Konkurrenzprodukt kauften, waren um 80% höher die wahrscheinlich nicht an der Umfrage teilnehmen würden, und ihre Daten wurden in der Stichprobe unterrepräsentiert sind.
Klicken Sie auf . chevron_left für die Definition.
Sampling Bias
-
Definition
Stichprobenverzerrung tritt auf, wenn ordnungsgemäße Randomisierung werden bei der Datenerhebung nicht verwendet.
-
Beispiel
Ein Modell wird trainiert, um den zukünftigen Verkauf eines neuen Produkts Telefonumfragen mit einer Stichprobe von Nutzern, die das Produkt und mit einer Stichprobe von Verbraucher*innen, die ein Produkt. Anstatt die Umfrage willkürlich auf Verbraucher auszurichten, die ersten 200 Verbraucher, die auf eine E-Mail geantwortet haben, waren begeisterter für das Produkt als der Durchschnitt Käufer:innen.
Klicken Sie auf . chevron_left für die Definition.
Gruppenattributionsverzerrung
Gruppenattributionsverzerrung ist die Tendenz, den Wahrheitsgehalt von Individuen auf die gesamte Gruppe zu verallgemeinern, gehören, zu denen sie gehören. Eine Verzerrung bei der Gruppenzuordnung zeigt sich oft in den beiden folgenden Bereichen: .
Gruppenintern
-
Definition
Die In-Group-Verzerrung ist eine Präferenz für Mitglieder von der eigenen Gruppe, der Sie angehören, oder aufgrund von Merkmalen die Sie auch teilen.
-
Beispiel
Zwei ML-Anwender, die ein Lebenslauf-Screening-Modell trainieren Softwareentwickler sind dazu bereit zu glauben, dass Bewerber die dieselbe Informatik-Akademie besuchten wie sie beide. die für die Stelle qualifiziert sind.
Klicken Sie auf . chevron_left für die Definition.
Gruppenextern (Homogenitätsbias)
-
Definition
Die Homogenitätsverzerrung ist eine Tendenz, Vorurteile über einzelne Mitglieder einer Gruppe, die Sie nicht gehören oder ihre Merkmale einheitlicher betrachten sollen.
-
Beispiel
Zwei ML-Anwender, die ein Lebenslauf-Screening-Modell trainieren Softwareentwickler sind dazu bereit zu glauben, dass alle Bewerber die nicht an einer Informatikakademie teilgenommen haben, über ausreichendes Fachwissen verfügt.
Klicken Sie auf . chevron_left für die Definition.
Implizite Voreingenommenheit
-
Definition
Impliziter Bias tritt auf, wenn Annahmen getroffen werden. auf dem eigenen Modell der Denkweise und persönlichen Erfahrungen basieren, nicht unbedingt allgemein anwenden.
-
Beispiel
Ein ML-Experte, der ein Gestenerkennungsmodell trainiert, verwendet Kopfschütteln als eine Funktion, die anzeigt, dass eine Person das Wort „Nein“ kommuniziert. In einigen Regionen der Welt schüttelt jedoch ein Kopfschütteln „Ja“ bedeutet.
Klicken Sie auf . chevron_left für die Definition.
Bestätigungsverzerrung
-
Definition
Bestätigungsverzerrungen treten auf, wenn Modellersteller unbewusst Daten auf eine Weise verarbeiten, die bereits bestehende Überzeugungen bestätigt und Hypothesen.
-
Beispiel
Ein ML-Experte erstellt ein Modell, das Aggressivität vorhersagt bei Hunden basierend auf verschiedenen Merkmalen (Größe, Gewicht, Rasse, Umgebung). Der Arzt hatte eine unangenehme Erfahrung mit einer ist ein hyperaktiver Zwergpudel. Seitdem hat er aggressiv vorgehen. Wenn Sie die Trainingsdaten des Modells auswählen, der Arzt unbewusst Funktionen verwirft, die ihm ein Beweis für Angemessenheit bei kleineren Hunden.
Klicken Sie auf . chevron_left für die Definition.
Verzerrungen des Experimentierers
-
Definition
Experimentatorverzerrung tritt auf, wenn ein Modellersteller trainiert ein Modell so lange, bis es ein Ergebnis liefert, das Ausgangshypothese.
-
Beispiel
Ein ML-Experte erstellt ein Modell, das Aggressivität vorhersagt bei Hunden basierend auf verschiedenen Merkmalen (Größe, Gewicht, Rasse, Umgebung). Der Arzt hatte eine unangenehme Erfahrung mit einer ist ein hyperaktiver Zwergpudel. Seitdem hat er aggressiv vorgehen. Wann das trainierte Modell die meisten Zwergpudel sollten relativ sanftmunter sein, der Arzt trainierte mehrere Male, bis es ein Ergebnis lieferte, das um kleinere Pudel gewalttätiger zu machen.
Klicken Sie auf . chevron_left für die Definition.