Evaluar un modelo de aprendizaje automático (AA) de forma responsable requiere hacer más que solo calcular las métricas de pérdida generales. Antes de implementar un modelo en producción, es fundamental controlar los datos de entrenamiento y evaluar las predicciones para detectar sesgos.
En este módulo, se analizan los distintos tipos de sesgos cognitivos humanos que se pueden manifestar en los datos de entrenamiento. Luego, ofrece estrategias para identificarlos y mitigarlos, y, luego, evaluar el rendimiento del modelo con equidad.
[null,null,["Última actualización: 2025-01-03 (UTC)"],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]