AI と ML の倫理と安全性

ML は、社会を肯定的にも否定的にもさまざまな方法で変革する可能性を秘めています。モデルとそのモデルが含まれるシステムの倫理的影響を考慮することが重要です。

Google で開発された他の技術と同様に ML プロジェクトは社会に恩恵をもたらすものでなければなりません危害を与えるものではなく、不正使用される恐れがあるものであってはなりません。バイアスや偏見を助長、強化、悪化させないでください。 無責任に個人データを収集、使用してはなりません。

Google の AI に関する原則

ML プロジェクトは Google の AI の原則に準拠する必要があります。責任ある AI(RAI)Smart Practices サイトは、Google 社員が Google の AI に関する原則に沿った、倫理的に健全な ML ソリューションを開発できるよう支援するサイトです。

RAI スマート プラクティスは、チームが責任を持って AI と ML を開発するために実装するための実用的なガイドラインです。ML ソリューションは 次の分野で Google の ガイダンスに従う必要があります

  • 公平さ
  • プライバシー
  • 透明性
  • 安全性

ML と倫理に関する質問や懸念事項については、ご使用のプロダクトの PCounselプライバシー ワーキング グループにお問い合わせください。

公平さ

不公平なバイアスの発生や助長を防ぎます。トレーニング データに次のような特性がある場合、モデルにバイアスが生じます。

  • ユーザーの実際の人口を反映していません。

  • 収監時間などの刑事司法判決など、偏った判断や結果を保持します。

  • 特定のユーザー グループに対して予測力の高い機能を使用します。

上記の例は、モデルがバイアスをかける方法のほんの一部です。データに含まれている潜在的なバイアスを特定して解決するには、データを完全に理解することが重要です。公平なモデルを開発するための最初のステップは、トレーニング データがユーザーの分布を正確に反映していることを検証することです。公平なモデルを作成するためのさらなるプラクティスは次のとおりです。

  • 評価データセットで過小評価されているグループや、他のグループと比較してモデルの品質が低下する可能性があるグループを特定します。トレーニング データにおけるプレゼンスを高めるために、ユーザーのサブグループをオーバーサンプリングすることが必要になる場合があります。

  • ゴールデン データセット(ベンチマーク データセットとも呼ばれます)を使用して、公平性の問題に対してモデルを検証し、暗黙的なバイアスを検出します。

  • 性別や民族など、センシティブな特徴をデータセットに含めないでください。

  • 経験的または説明力がほとんどない特徴を含めることは避けてくださいが、特に、ヘルスケア、金融、教育、雇用などの分野でトレーニング済みモデルを使用して影響の大きいタスクを実行する機密性の高い状況では、特徴を含めないでください。たとえば、住宅ローンを承認するモデルでは、トレーニング データに名前を含めないでください。申請者の名前が予測タスクと無関係であるだけでなく、そのような無関係な特徴をデータセットに残すと、暗黙的なバイアスや配分的危害を引き起こす可能性もあります。たとえば、モデルは男性の名前と返済の確率が高いものを関連付けるか、その逆を行います。

  • モデルの予測が特定のグループに与える可能性のある悪影響を測定します。センシティブなコンテキストで悪影響が見つかった場合は、意図的なバイアス修正手法を検討します。

AI と ML の公平性について詳しくは、スマート プラクティスの公平性に関するページ 機械学習集中講座の公平性モジュールをご覧ください。

プライバシー

プライバシー デザイン原則を最初から取り入れる。Google の新しい機能やプロダクトと同様に、プロダクト分野のプライバシー ワーキング グループによるモデルの審査が必要です。そのため、プライバシー設計ドキュメントを早めに作成して最初のフィードバックを得ます。

プライバシー関連の法律とポリシーは次のとおりです。注意して遵守する必要があります。

Google 固有のプライバシー保護の取り組みは次のとおりです。

  • 消去の規則。

  • バイナリおよび構成 ID(BCID)レベル 4。悪意のあるコードや侵害されたコードがシステムにアクセスするのを防ぎます。

  • データセットからすべての PII を削除し、モデルとデータ リポジトリに適切な権限(たとえば、誰でも読み取り可能ではない)が設定されていることを確認します。

次の動画では、プライバシーに関する問題の概要を紹介しています。

AI と ML のプライバシーの詳細については、スマート プラクティスのプライバシーに関するページをご覧ください。

透明性

人々への説明責任を負う。たとえば、モデルが何をするのか、どのように行うのか、なぜモデルを取るのかを、他のユーザーが簡単に理解できるようにします。モデルカードは、モデルを文書化し、透明性のアーティファクトを作成するためのテンプレートを提供します。

AI と ML の透明性について詳しくは、スマート プラクティスの透明性ページをご覧ください。

安全性

敵対的条件下で安全に動作するようにモデルを設計します。たとえば、潜在的な悪意のある入力でモデルをテストして、モデルが安全であることを確認します。また、潜在的な障害条件も確認します。チームは通常、特別に設計されたデータセットを使用して、過去にモデルが失敗する原因となった入力や条件でモデルをテストします。

安全性について詳しくは、責任ある AI のページをご覧ください。

モデルが動作する社会的コンテキストの幅広い範囲を常に考慮してください。センシティブ データの取り扱いがプライバシーの問題、偏見の永続化、他者の知的財産権の侵害につながらないように注意してください。

生成 AI の倫理については、生成 AI の RAI スマート プラクティスをご覧ください。