Справедливость

Справедливость учитывает возможные различия в результатах, с которыми могут столкнуться конечные пользователи, связанные с такими деликатными характеристиками, как раса, доход, сексуальная ориентация или пол, посредством алгоритмического принятия решений. Например, может ли алгоритм найма иметь предвзятость в пользу или против кандидатов с именами, связанными с определённым полом или этнической принадлежностью?

Узнайте больше о том, как системы машинного обучения могут быть подвержены человеческому влиянию, из этого видео:

В качестве примера из реальной жизни прочтите о том, как такие продукты, как Google Search и Google Photos, улучшили разнообразие представлений оттенков кожи с помощью шкалы оттенков кожи Монка .

Существуют надёжные методы выявления, измерения и минимизации смещений в моделях. Модуль «Справедливость» курса «Машинное обучение» подробно рассматривает методы обеспечения справедливости и минимизации смещений.

Организация People + AI Research (PAIR) предлагает интерактивные материалы по измерению справедливости и скрытой предвзятости, которые помогут вам разобраться в этих концепциях. Дополнительные термины, связанные с справедливостью машинного обучения, см. в разделе «Глоссарий машинного обучения: справедливость» | Google для разработчиков .