Avaliar um modelo de machine learning (ML) de forma responsável requer mais do que
apenas calcular as métricas de perda geral. Antes de colocar um modelo em produção,
é fundamental auditar os dados de treinamento e avaliar as previsões em busca de
viés.
Este módulo analisa diferentes tipos de vieses humanos que podem se manifestar nos
dados de treinamento. Ele fornece estratégias para identificá-los e mitigá-los
e, em seguida, avaliar a performance do modelo com imparcialidade.
[null,null,["Última atualização 2025-01-03 UTC."],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]