Fairness

Die verantwortungsvolle Bewertung eines Modells für maschinelles Lernen (ML) erfordert mehr als nur die Berechnung von Verlustmesswerten insgesamt. Bevor ein Modell in Produktion genommen wird, ist es wichtig, die Trainingsdaten zu prüfen und Vorhersagen auf Voreingenommenheit zu überprüfen.

In diesem Modul werden verschiedene Arten von menschlichen Voreingenommenheiten untersucht, die sich in Trainingsdaten zeigen können. Anschließend werden Strategien zur Identifizierung und Minimierung von Verzerrungen vorgestellt und die Modellleistung unter Berücksichtigung der Fairness bewertet.