Этика и безопасность искусственного интеллекта и машинного обучения

ОД обладает потенциалом изменить общество многими значимыми способами, как в позитивную, так и в негативную сторону. Крайне важно учитывать этические последствия ваших моделей и систем, частью которых они являются.

Как и любая технология, разработанная в Google, ваши проекты ML должны приносить пользу обществу. Они не должны причинять вред или быть уязвимыми для неправильного использования. Они не должны увековечивать, усиливать или усугублять предубеждения и предрассудки. Они не должны собирать или использовать персональные данные безответственно.

Принципы искусственного интеллекта Google

Проекты ML должны соответствовать принципам искусственного интеллекта Google . Сайт Smart Practices Responsible AI (RAI) помогает сотрудникам Google разрабатывать этически обоснованные решения машинного обучения, соответствующие принципам искусственного интеллекта Google.

RAI Smart Practices — это практические рекомендации, которые команды могут применять для ответственной разработки искусственного интеллекта и машинного обучения. Решения ML должны соответствовать рекомендациям Google в следующих областях:

  • Справедливость
  • Конфиденциальность
  • Прозрачность
  • Безопасность

По вопросам или проблемам, связанным с отмыванием денег и этикой, обращайтесь в рабочую группу PCounsel и Privacy, занимающуюся вашим продуктом.

Справедливость

Избегайте создания или усиления несправедливой предвзятости . Модели демонстрируют предвзятость, когда их обучающие данные имеют некоторые из следующих характеристик:

  • Не отражает реальную численность своих пользователей.

  • Сохраняет предвзятые решения или результаты, например, решения уголовного правосудия, такие как сроки тюремного заключения.

  • Использует функции с большей прогнозирующей способностью для определенных групп пользователей.

Предыдущие примеры — это лишь некоторые способы, которыми модели становятся предвзятыми. Тщательное понимание ваших данных имеет решающее значение для выявления и устранения любых потенциальных ошибок, которые они содержат. Первым шагом для разработки справедливых моделей является проверка того, что данные обучения точно отражают распределение ваших пользователей. Ниже приведены дополнительные методы, которые помогут создать справедливые модели:

  • Определите недостаточно представленные группы в наборах оценочных данных или группы, которые могут иметь худшее качество модели по сравнению с другими группами. Возможно, вам придется увеличить выборку подгруппы ваших пользователей, чтобы увеличить их присутствие в обучающих данных.

  • Используйте «золотые наборы данных» (также известные как наборы эталонных данных), чтобы проверить модель на предмет проблем справедливости и обнаружить неявную предвзятость.

  • Избегайте включения в наборы данных конфиденциальных характеристик, таких как пол или этническая принадлежность.

  • Избегайте включения функций с небольшой эмпирической или объяснительной силой, особенно в деликатных контекстах, где обученная модель используется для выполнения высокоэффективных задач в таких областях, как здравоохранение, финансы, образование, трудоустройство и т. д. Например, в модели одобрения жилищных кредитов не включайте имена в обучающие данные. Мало того, что имя заявителя не имеет отношения к задаче прогнозирования, но оставление такого нерелевантного признака в наборе данных также может создать неявную предвзятость или вред от распределения. Например, модель может соотносить мужские имена с более высокой вероятностью погашения долга или наоборот.

  • Измерьте потенциальное неблагоприятное влияние, которое предсказания модели могут оказать на определенные группы, и рассмотрите методы преднамеренной коррекции предвзятости, если вы обнаружите неблагоприятное влияние в деликатном контексте.

Дополнительную информацию о справедливости искусственного интеллекта и машинного обучения см. на странице «Справедливость Smart Practices» и в модуле «Справедливость ускоренного курса машинного обучения» .

Конфиденциальность

Включите принципы обеспечения конфиденциальности с самого начала. Как и любая новая функция или продукт Google, ваша модель должна быть проверена рабочей группой по конфиденциальности вашего продукта. Поэтому заранее создайте документ по проектированию конфиденциальности , чтобы получить первоначальные отзывы.

Ниже приведены законы и политики, связанные с конфиденциальностью, которые следует знать и соблюдать:

Ниже приведены правила конфиденциальности, специфичные для Google:

  • Правила уничтожения .

  • Двоичный идентификатор и идентификатор конфигурации (BCID) уровня 4 для предотвращения доступа вредоносного или скомпрометированного кода к вашей системе.

  • Удалите все персональные данные из наборов данных и убедитесь, что ваша модель и репозитории данных настроены с правильными разрешениями, например не доступны для чтения всем.

В следующем видео представлен общий обзор вопросов, связанных с конфиденциальностью:

Дополнительную информацию о конфиденциальности AI и ML см. на странице конфиденциальности Smart Practices .

Прозрачность

Будьте подотчетны людям. Например, сделайте так, чтобы другие могли понять, что делает ваша модель, как она это делает и почему. Карточки моделей предоставляют шаблон для документирования вашей модели и создания артефактов прозрачности.

Дополнительную информацию о прозрачности искусственного интеллекта и машинного обучения см. на странице «Прозрачность Smart Practices» .

Безопасность

Создавайте модели для безопасной работы в неблагоприятных условиях. Например, протестируйте свою модель с потенциально враждебными входными данными, чтобы убедиться в ее безопасности. Кроме того, проверьте возможные условия отказа. Команды обычно используют специально разработанные наборы данных для тестирования своих моделей с учетом входных данных или условий, которые в прошлом приводили к сбою модели.

Дополнительную информацию о безопасности можно найти на странице «Ответственный ИИ» .

Всегда учитывайте более широкий социальный контекст, в котором работают ваши модели. Позаботьтесь о том, чтобы ваше обращение с конфиденциальными данными не нарушало вопросы конфиденциальности, не усугубляло предвзятость и не посягало на чью-либо интеллектуальную собственность.

Информацию об этике генеративного ИИ см. в разделе «Умные практики RAI для генеративного ИИ» .