Die verantwortungsvolle Bewertung eines Modells für maschinelles Lernen (ML) erfordert mehr als nur die Berechnung von Verlustmesswerten insgesamt. Bevor ein Modell in Produktion genommen wird, ist es wichtig, die Trainingsdaten zu prüfen und Vorhersagen auf Voreingenommenheit zu überprüfen.
In diesem Modul werden verschiedene Arten von menschlichen Voreingenommenheiten untersucht, die sich in Trainingsdaten zeigen können. Anschließend werden Strategien zur Identifizierung und Minimierung von Verzerrungen vorgestellt und die Modellleistung unter Berücksichtigung der Fairness bewertet.
[null,null,["Zuletzt aktualisiert: 2025-01-03 (UTC)."],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]