Справедливость

Справедливость учитывает возможные несопоставимые результаты, с которыми могут столкнуться конечные пользователи, связанные с такими чувствительными характеристиками, как раса, доход, сексуальная ориентация или пол, посредством алгоритмического принятия решений. Например, может ли алгоритм найма иметь предубеждения за или против кандидатов, имена которых связаны с определенным полом или этнической принадлежностью?

Узнайте больше о том, как системы машинного обучения могут быть подвержены человеческой предвзятости, из этого видео:

В качестве примера из реальной жизни читайте о том, как такие продукты, как Google Search и Google Photos, улучшили разнообразие представлений оттенков кожи с помощью шкалы оттенков кожи Монка .

Существуют надежные методы выявления, измерения и смягчения систематической ошибки в моделях. Модуль «Справедливость» ускоренного курса машинного обучения предоставляет углубленный взгляд на методы обеспечения справедливости и смягчения предвзятости.

People + AI Research (PAIR) предлагает интерактивные исследования искусственного интеллекта по измерению справедливости и скрытой предвзятости, чтобы разобраться в этих концепциях. Дополнительные термины, связанные со справедливостью машинного обучения, см. в глоссарии машинного обучения: справедливость | Гугл для разработчиков .