Introduction to Responsible AI

어떻게 책임감 있게 AI 시스템을 빌드할 수 있을까요? 책임감 있는 AI, 관련 개념 및 용어, 이러한 관행을 제품에 구현하는 방법을 알아보세요.

소개

인공지능 (AI)은 사람들이 일상적으로 사용하는 많은 앱과 서비스를 지원합니다. 기업부터 의료, 교육에 이르기까지 수십억 명의 AI 사용자가 업계에서 가장 유용하고 안전하며 신뢰할 수 있는 환경을 조성하기 위해서는 선도적인 AI 기업들이 이러한 기술의 이점이 피해를 능가하도록 하는 것이 중요합니다.

책임감 있는 AI는 잠재적 피해와 이점을 포함하여 이러한 기술의 개발 및 규모에 따른 사회적 영향을 고려합니다. AI 원칙은 AI 애플리케이션의 목표가 포함된 프레임워크와 AI 시스템 개발에서 추구하지 않을 애플리케이션을 제공합니다.

책임감 있는 AI 측정기준

AI 개발이 가속화되고 널리 보급됨에 따라 책임감 있는 AI 관행을 아이디어 구상부터 출시에 이르는 모든 워크플로 단계에 통합하는 것이 매우 중요합니다. 다음 측정기준은 Responsible AI의 핵심 구성요소이며 제품 수명 주기 전반에서 고려해야 합니다.

공정성

공정성은 알고리즘 결정을 통해 인종, 소득, 성적 지향 또는 성별과 같은 민감한 특성과 관련하여 최종 사용자가 경험할 수 있는 이질적인 결과를 처리합니다. 예를 들어 채용 알고리즘에 특정 성별 또는 민족과 관련된 이름을 가진 지원자를 대상으로 하는 편견이 포함되어 있을 수 있나요?

다음 동영상에서 머신러닝 시스템이 인간의 편향에 민감한 방식에 대해 자세히 알아보세요.

Google 검색 및 포토와 같은 제품이 피부색 표현의 다양성을 어떻게 개선했는지 알아보세요.

ML 공정성에 관한 자세한 용어는 머신러닝 용어집: 공정성 | Google for Developers를 참조하세요. 머신러닝 단기집중과정공정성 모듈에서는 ML 공정성을 소개합니다.

People + AI Research (PAIR)는 공정성 측정숨겨진 편향을 비롯해 이러한 개념을 설명하는 대화형 AI 탐색 분석을 제공합니다.

책무성

책임은 AI 시스템의 효과에 책임을 지는 것을 의미합니다. 여기에는 투명성, 즉 시스템 동작 및 조직 프로세스에 관한 정보 공유가 포함됩니다. 여기에는 모델 및 데이터 세트의 생성, 학습, 평가 방법을 문서화하고 공유하는 과정이 포함될 수 있습니다. 모델 카드데이터 카드는 ML 모델 및 데이터 세트의 필수 요소를 구조화된 방식으로 구성하는 데 도움이 되는 투명성 아티팩트의 예시입니다.

책임성의 또 다른 측면은 해석 가능성으로, 여기에는 사람이 예측으로 이어지는 특성을 식별할 수 있는 ML 모델 결정에 대한 이해가 포함됩니다. 게다가 설명 가능성은 모델의 자동화된 결정을 사람이 이해할 수 있는 방식으로 설명하는 능력입니다.

사람 + AI 가이드북설명 + 신뢰 장과 Google 책임감 있는 AI 관행의 해석 가능성 섹션에서 AI 시스템의 사용자 신뢰 구축에 대해 자세히 알아보세요.

안전

AI 안전에는 의도적으로 또는 의도치 않게 해를 입힐 수 있는 작업을 방지하고 포함하기 위해 따라야 하는 일련의 설계 및 운영 기술이 포함됩니다. 예를 들어 시스템이 보안 침해 또는 표적 공격에 직면한 경우에도 제대로 동작하나요? AI 시스템이 교란하더라도 안전하게 작동할 만큼 강력한가요? 위험을 예방하거나 방지하기 위해 사전에 어떻게 계획하나요? 시스템이 안정적이고 압박 하에서 안정적인가요?

Google 책임감 있는 AI 관행의 안전 섹션에는 적대적 테스트를 포함하여 AI 시스템을 공격으로부터 보호하기 위한 권장 조치가 요약되어 있습니다. 이 분야의 노력과 키워드 블로그 게시물 Google의 AI Red팀: AI를 더욱 안전하게 만드는 윤리적인 해커에 대해 자세히 알아보세요.

개인 정보 보호

책임감 있는 AI의 개인 정보 보호 관행 (Google 책임감 있는 AI 관행의 개인 정보 보호 섹션 참고)에는 민감한 정보 사용 시 개인 정보 보호 영향을 고려할 수 있습니다. 여기에는 현지 법규와 규제 요건을 준수하는 것뿐만 아니라 사회적 규범과 일반적인 개인의 기대치도 고려해야 합니다. 예를 들어 ML 모델이 노출된 데이터의 측면을 기억하거나 드러낼 수 있다는 점을 고려하여 개인 정보 보호를 위해 어떤 보호 장치를 마련해야 하나요? 사용자가 데이터를 적절하게 파악하고 제어할 수 있으려면 어떤 단계를 거쳐야 하나요?

PAIR Explorables의 대화형 둘러보기를 통해 ML 개인 정보 보호에 관해 자세히 알아보세요.

생성 모델/LLM의 책임감 있는 AI

대규모 생성 모델이 등장하면서 책임감 있는 AI 관행을 구현하기 위한 새로운 과제가 생겼습니다. 바로 책임감 있는 AI는 잠재적인 엔드 투 엔드 출력 기능과 여러 다운스트림 용도이기 때문입니다. Google에서는 AI 원칙 외에도 생성된 AI 금지 정책개발자를 위한 일반 AI 가이드를 시행하고 있습니다.

Google 생성 AI에서 Google팀이 생성 AI를 사용하여 사용자를 위한 새로운 환경을 만드는 방법에 대해 자세히 알아보세요. 이 사이트에서는 생성 모델의 안전성 및 공정성, 프롬프트 엔지니어링, 적대적 테스트에 관한 가이드도 제공합니다. 언어 모델에 관한 대화형 둘러보기는 PAIR Explorable: 학습한 언어 모델을 참조하세요.

추가 자료

Google이 AI에 집중하는 이유 – Google AI

Google AI 검토 프로세스

AI 원칙 검토 프로세스 | Google AI:

책임감 있는 AI 툴킷 | TensorFlow