Справедливость учитывает возможные различия в результатах, с которыми могут столкнуться конечные пользователи, связанные с такими деликатными характеристиками, как раса, доход, сексуальная ориентация или пол, посредством алгоритмического принятия решений. Например, может ли алгоритм найма иметь предвзятость в пользу или против кандидатов с именами, связанными с определённым полом или этнической принадлежностью?
Узнайте больше о том, как системы машинного обучения могут быть подвержены человеческому влиянию, из этого видео:
В качестве примера из реальной жизни прочтите о том, как такие продукты, как Google Search и Google Photos, улучшили разнообразие представлений оттенков кожи с помощью шкалы оттенков кожи Монка .
Существуют надёжные методы выявления, измерения и минимизации смещений в моделях. Модуль «Справедливость» курса «Машинное обучение» подробно рассматривает методы обеспечения справедливости и минимизации смещений.
Организация People + AI Research (PAIR) предлагает интерактивные материалы по измерению справедливости и скрытой предвзятости, которые помогут вам разобраться в этих концепциях. Дополнительные термины, связанные с справедливостью машинного обучения, см. в разделе «Глоссарий машинного обучения: справедливость» | Google для разработчиков .