責任ある AI の概要

責任ある AI システムの構築を大規模に行うには?責任ある AI について、関連するコンセプトと用語、それらの実装をプロダクトに実装する方法について学習します。

はじめに

人工知能(AI)は、人々の日常生活に使われる多くのアプリやサービスを支えています。ビジネスから医療、教育まで、あらゆる分野の数十億人の AI ユーザーがいますが、すべてのユーザーにとって有用で安全、かつ信頼性の高いエクスペリエンスを創出するために、大手 AI 企業は、これらのテクノロジーのメリットが有害性を上回るように尽力することが重要です。

責任ある AI は、起こりうる危害やメリットを含め、これらのテクノロジーの開発と規模によって生じる社会的影響を考慮します。AI の原則は、AI アプリケーションの目標を含むフレームワークと、AI システムの開発で追求しないアプリケーションを提供します。

責任ある AI の側面

AI 開発が加速し、ユビキタスになることで、構想からリリースまですべてのワークフロー ステージで責任ある AI の手法を取り入れることが重要となります。次のディメンションは、責任ある AI に関連する重要な要素であり、プロダクトのライフサイクル全体を通じて考慮することが重要です。

公平さ

公平性は、アルゴリズムの意思決定を通じて、人種、収入、性的指向、性別などの繊細な特性に関連してエンドユーザーが経験する可能性のあるさまざまな結果に対処します。たとえば、採用アルゴリズムが、特定の性別や民族に関連する名前の応募者に対してバイアスまたはバイアスをかけている可能性があります。

機械学習システムが人間のバイアスにさらされやすい仕組みについて詳しくは、以下の動画をご覧ください。

Google 検索や Google フォトなどのサービスで肌の色の表現の多様性がどのように向上したかをご確認ください。

ML の公平性に関連する用語については、機械学習の用語集: 公平性 | Google for Developers をご覧ください。 詳細については、機械学習集中講座公平性モジュールで ML の公平性の概要をご覧ください。

People + AI Research(PAIR)は、こうした概念の詳細を説明するために、公平性の測定隠れバイアスなどのインタラクティブな AI Explorable を提供しています。

アカウンタビリティ

アカウンタビリティとは、AI システムの効果に対する責任を負っていることを意味します。これには、透明性、つまりシステムの動作や組織プロセスに関する情報の共有が含まれます。これには、モデルとデータセットの作成方法、トレーニング、評価の方法の文書化と共有が含まれます。モデルカードデータカードは、ML モデルとデータセットの重要な事実を構造化された方法で整理するのに役立つ透明性アーティファクトの例です。

アカウンタビリティのもう一つの側面は解釈可能性です。これは、予測につながる特徴を人間が特定できる、ML モデルの判断を意味します。また、説明可能性とは、モデルによる自動的な決定を人間が理解できるように説明する能力です。

AI システムでのユーザーの信頼の構築について詳しくは、People + AI ガイドブック説明可能性 + 信頼の章と、Google の責任ある AI への取り組みの解釈可能性のセクションをご覧ください。

安全性

AI の安全には、意図的または意図せずに損害を及ぼす可能性のあるアクションを回避し、封じ込めるための設計と運用に関する一連の手法が含まれています。たとえば、セキュリティ侵害や標的型攻撃の場合でも、システムは意図したとおりに動作しますか?AI システムは、たとえ混乱した場合でも安全運用できるほど堅牢ですか。リスクを防止または回避するために、どのように計画しますか。システムは負荷下で信頼性が高く、安定していますか?

Google の責任ある AI への取り組みの安全に関するセクションでは、攻撃テストから AI システムを保護するためのおすすめの方法について説明しています。この分野の取り組みと、Keyword ブログ投稿「Google の AI Red Team: 倫理的ハッカーが AI をより安全にする」で得られた教訓について学習する。

プライバシー

責任ある AI におけるプライバシー プラクティス(Google の責任ある AI への取り組みのプライバシー セクションをご覧ください)では、機密データを使用する場合にプライバシーに対する潜在的な影響について検討しています。これには、法的要件や規制要件の遵守だけでなく、社会的規範や典型的な個人の期待の考慮も含まれます。たとえば、ML モデルが個人に与えられたデータの要素を覚えていたり、明らかにしたりする可能性がある場合に、個人のプライバシーを確保するためにどのような安全保護対策を講じる必要がありますか。ユーザーが自身のデータを適切に透明化、管理するには、どのような手順が必要ですか。

PAIR Explorables のインタラクティブなチュートリアルで ML プライバシーの詳細を確認する。

生成モデル/LLM の責任ある AI

ジェネレーティブ モデルが登場するにつれ、責任ある AI の実践は、エンドツーエンドで行える可能性のある出力機能と、多くの下流での使用によって実装されるという、新しい課題をもたらします。Google では、AI の原則に加えて、AI の禁止規定デベロッパー向け AI 生成ガイドを用意しています。

Google のチームがジェネレーティブ AI を使用してどのように Google Generative AI のユーザー向けに新しいエクスペリエンスを作成しているかをご確認ください。このサイトでは、安全性と公平性プロンプト エンジニアリング敵対的テストの生成ガイダンスについてガイダンスも提供しています。言語モデルのインタラクティブなチュートリアルについては、「PAIR Explorable: What What Language Models Learned?」をご覧ください。

参考情報

AI に注力する理由 - Google AI

Google AI の審査プロセス

AI の原則のレビュー プロセス | Google AI:

責任ある AI ツールキット | TensorFlow