Bir makine öğrenimi modelini (ML) sorumlu bir şekilde değerlendirmek için yalnızca genel kayıp metriklerini hesaplamaktan daha fazlasını yapmak gerekir. Bir modeli üretime koymadan önce eğitim verilerini denetlemek ve tahminleri eğilim açısından değerlendirmek önemlidir.
Bu modülde, eğitim verilerinde ortaya çıkabilecek farklı insan önyargı türleri ele alınmaktadır. Ardından, bu önyargıları tespit edip azaltmak ve model performansını adaleti göz önünde bulundurarak değerlendirmek için stratejiler sunar.
[null,null,["Son güncelleme tarihi: 2025-01-03 UTC."],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]