Responsible AI 簡介

如何以負責任的方式大規模建構 AI 系統?瞭解 Responsible AI、相關概念和條款,以及瞭解如何在產品中實作這些做法。

簡介

人工智慧 (AI) 支援許多人在日常生活中使用的應用程式和服務。從商業、健康照護到教育業,對數十億名 AI 使用者而言,最重要的是讓頂尖的 AI 公司能夠確保這些技術的效益可以打折,為所有人打造最實用、安全且值得信賴的體驗。

負責任的 AI 技術會考量這些科技的開發和擴充所帶來的社會影響,包括潛在的傷害與優勢。AI 原則提供包含 AI 應用程式目標的架構,而且我們不打算在 AI 系統開發中開發應用程式。

Responsible AI 維度

隨著 AI 開發的成長速度越來越普遍,將負責任的 AI 技術融入每個工作流程階段,而從構想到實際推出,我們都至關重要。下列維度是 Responsible AI 的重要元件,在產品生命週期中更需要考量。

公平性

公平性是指透過演算法決策,指出使用者可能會遇到種族、收入、性傾向或性別等敏感特性的不同結果,舉例來說,聘僱演算法可能會針對特定性別或族裔的姓名,

如要進一步瞭解機器學習系統可能對人類偏誤帶來哪些影響,請觀看這部影片:

瞭解 Google 搜尋和 Google 相簿等產品如何改善肌膚色調的多元性。

如要查看更多與機器學習公平性相關的字詞,請參閱機器學習詞彙表:公平性 | Google for Developers。詳情請參閱機器學習密集課程公平性單元,主要介紹機器學習公平性。

People + AI Research (PAIR) 提供互動式 AI 探索服務,包含評估公平性隱藏的偏誤來逐步完成這些概念。

可靠性

「可靠度」係指負責 AI 系統效應。這包括透明度或分享系統行為和機構程序的相關資訊,其中可能包括記錄及分享模型、資料集建立、訓練和評估的方式。模型資訊卡資料資訊卡是透明成果的範例,可協助您以結構化的方式整理機器學習模型和資料集的基本概念。

另一個可靠度是「可互通性」,其中涉及機器學習的決策,而人類能夠識別導致預測的特徵。此外,「相容性」是指模型的自動決策能力,可以透過人類能理解的方式說明。

如要進一步瞭解如何在 AI 系統中建立使用者信任感,請參閱 People + AI 指南的「Explainable + Trust」一節,以及 Google 的「Responsible AI 做法」一節的「可解釋性」一節。

安全分

AI 安全性包含一組設計和操作技巧,目的是避免並蓄意造成傷害、刻意或無意地採取行動。舉例來說,即使發生安全性漏洞或目標攻擊,系統是否可正常運作?您的 AI 系統是否夠穩定,即使在安全無虞的情況下仍可安全運作?您如何規劃預防或避免風險?你的系統是否穩定可靠?

Google 《負責任的 AI 做法》一節的「安全性」一節概略說明建議措施,避免 AI 系統遭受攻擊,包括被動測試。想進一步瞭解 Google 在這方面締造的成果,請參閱關鍵字網誌文章:Google 的 AI Red Red 團隊:運用 AI 安全原則的道地駭客

隱私權

Responsible AI 中的「隱私權」做法 (請參閱 Google 負責任的 AI 做法) 一節,瞭解使用機密資料時可能對隱私權造成的影響。這包括不只遵守法律和法規要求,也需考量社交常態和一般個人期望。舉例來說,為確保個人隱私,哪些防護措施需要採取?使用者需要採取哪些步驟,才能充分瞭解並掌控自己的資料?

進一步瞭解 PAIR Explorables 的互動式逐步操作說明:

負責型模型/LLM 的負責任 AI 技術

大型基因模型的問世會帶來新的挑戰,因為其可能的開放式輸出功能具有許多可能性,以及許多可能的下游使用。除了 AI 原則外,Google 也提供引導式 AI 禁止使用政策開發人員專用 AI 指南

瞭解 Google 團隊如何利用創造型 AI 為 Google Generative AI 的使用者打造全新體驗。這個網站也提供安全和公平性提示工程對抗測試 (適用於一般模型)。如需語言模型的互動式逐步操作說明,請參閱 PAIR Explorable:What Are Language Models Learned?

其他資源

為何我們專注於 AI 技術 – Google AI

Google AI 審查程序

AI 原則審查程序 | Google AI:

負責任的 AI 工具包 | TensorFlow