次の課題
大規模な生成モデルの登場により、責任ある AI のプラクティスを実装する際に新たな課題が生じています。これは、生成モデルの出力機能が自由形式である可能性があり、ダウンストリームで使用される可能性も多くあるためです。Google には、AI の原則に加えて、生成 AI の使用禁止に関するポリシーとデベロッパー向けの生成 AI ツールキットがあります。
Google は、以下に関する生成 AI モデルに関するガイダンスも提供しています。
概要
公平性、説明責任、安全性、プライバシーについて AI テクノロジーを評価することは、責任ある AI を構築するうえで重要です。すべての人にとって安全で公平かつ信頼できるプロダクトを開発するには、これらのチェックをプロダクト ライフサイクルのすべての段階に組み込む必要があります。
その他の学習
Google が AI に注力する理由 - Google AI
PAIR Explorable: What Have Language Models Learned?
AI に関する原則の審査プロセス | Google AI: