Введение в ответственный ИИ

Как мы ответственно строим системы искусственного интеллекта в масштабе? Узнайте об ответственном искусственном интеллекте, соответствующих концепциях и терминах, а также о том, как реализовать эти методы в продуктах.

Введение

Искусственный интеллект (ИИ) обеспечивает работу многих приложений и сервисов, которые люди используют в повседневной жизни. Учитывая миллиарды пользователей ИИ в самых разных областях, от бизнеса до здравоохранения и образования, очень важно, чтобы ведущие компании ИИ работали над тем, чтобы преимущества этих технологий перевешивали вред, чтобы создавать наиболее полезные, безопасные и надежные решения для всех. .

Ответственный ИИ учитывает социальное влияние разработки и масштаба этих технологий, включая потенциальный вред и пользу. Принципы ИИ представляют собой основу, включающую цели для приложений ИИ, а также приложения, которые мы не будем использовать при разработке систем ИИ.

Ответственные измерения ИИ

По мере того, как разработка ИИ ускоряется и становится все более повсеместной, крайне важно включать методы ответственного ИИ на каждом этапе рабочего процесса от идеи до запуска. Следующие параметры являются ключевыми компонентами ответственного ИИ, и их важно учитывать на протяжении всего жизненного цикла продукта.

Справедливость

Справедливость учитывает возможные несопоставимые результаты, которые конечные пользователи могут испытать в связи с конфиденциальными характеристиками, такими как раса, доход, сексуальная ориентация или пол, посредством алгоритмического принятия решений. Например, может ли алгоритм найма предвзято относиться к кандидатам с именами, связанными с определенным полом или этнической принадлежностью, или против них?

Узнайте больше о том, как системы машинного обучения могут быть восприимчивы к человеческому предубеждению, из этого видео:

Узнайте о том, как такие продукты, как Поиск и Фото, улучшили разнообразие оттенков кожи .

Дополнительные термины, связанные с справедливостью машинного обучения, см. в Глоссарии машинного обучения: справедливость | Google для разработчиков . Чтобы узнать больше, в модуле Fairness ускоренного курса по машинному обучению представлено введение в справедливость машинного обучения.

People + AI Research (PAIR) предлагает интерактивные исследования ИИ, включая «Измерение справедливости» и «Скрытая предвзятость» , чтобы разобраться в этих концепциях.

Подотчетность

Подотчетность означает ответственность за последствия системы ИИ. Это включает в себя прозрачность или обмен информацией о поведении системы и организационном процессе, что может включать документирование и совместное использование того, как модели и наборы данных были созданы, обучены и оценены. Карты моделей и карты данных являются примерами артефактов прозрачности, которые могут помочь структурировать основные факты моделей и наборов данных машинного обучения.

Другим аспектом подотчетности является интерпретируемость , которая включает в себя понимание решений модели ML, когда люди могут идентифицировать функции, которые приводят к прогнозу. Более того, объяснимость — это способность автоматических решений модели объясняться так, чтобы их могли понять люди.

Подробнее о построении доверия пользователей к системам ИИ читайте в главе «Объяснимость + доверие» руководства «Люди + ИИ » и в разделе «Интерпретация» руководства Google «Ответственные методы ИИ » .

Безопасность

Безопасность ИИ включает в себя набор методов проектирования и эксплуатации, которым необходимо следовать, чтобы избегать и сдерживать действия, которые могут причинить вред, преднамеренно или непреднамеренно. Например, ведут ли себя системы так, как предполагалось, даже перед лицом нарушения безопасности или целенаправленной атаки? Достаточно ли надежна ваша система искусственного интеллекта, чтобы безопасно работать даже в условиях возмущения? Как вы планируете заранее, чтобы предотвратить или избежать рисков? Ваша система надежна и стабильна под давлением?

В разделе «Безопасность» Google Responsible AI Practices изложены рекомендуемые методы защиты систем ИИ от атак, включая состязательное тестирование. Узнайте больше о нашей работе в этой области и извлеченных уроках в записи блога Keyword «Команда Google AI Red: этичные хакеры делают ИИ более безопасным» .

Конфиденциальность

Практики конфиденциальности в Responsible AI (см. раздел «Конфиденциальность» Google Responsible AI Practices ) включают рассмотрение возможных последствий для конфиденциальности при использовании конфиденциальных данных. Это включает не только соблюдение законодательных и нормативных требований, но и учет социальных норм и типичных индивидуальных ожиданий. Например, какие меры безопасности необходимо принять для обеспечения конфиденциальности отдельных лиц, учитывая, что модели ОД могут запоминать или раскрывать аспекты данных, которым они подвергались? Какие шаги необходимы для обеспечения надлежащей прозрачности и контроля пользователей над своими данными?

Узнайте больше о конфиденциальности ML из интерактивных пошаговых руководств PAIR Explorables:

Ответственный ИИ в генеративных моделях/LLM

Появление больших генеративных моделей создает новые проблемы для реализации практик ответственного ИИ из-за их потенциально открытых возможностей вывода и многих потенциальных последующих применений. В дополнение к Принципам ИИ у Google есть Политика запрещенного использования генеративного ИИ и Руководство по генеративному ИИ для разработчиков .

Узнайте больше о том, как команды Google используют генеративный ИИ для создания новых возможностей для пользователей в Google Генеративный ИИ . На этом сайте мы также предлагаем руководство по безопасности и справедливости , оперативному проектированию и состязательному тестированию для генеративных моделей. Интерактивное пошаговое руководство по языковым моделям см. в PAIR Explorable: What Have Language Models Learned?

Дополнительные ресурсы

Почему мы фокусируемся на ИИ – Google AI

Процесс проверки ИИ Google

Процесс пересмотра принципов ИИ | ИИ Google:

Инструментарий ответственного ИИ | ТензорФлоу