Gemini Code Assist 和負責任的 AI

本文將說明 Gemini Code Assist 的設計方式,以及與生成式 AI 相關的功能、限制和風險。

大型語言模型的功能和風險

大型語言模型 (LLM) 可執行許多實用的工作,例如:

  • 翻譯語言。
  • 產生文字摘要。
  • 產生程式碼和創意寫作。
  • 為聊天機器人和虛擬助理提供動力。
  • 補足搜尋引擎和推薦系統的功能。

同時,LLM 不斷進步的技術能力也可能導致誤用、濫用,以及意料之外或無法預測的後果。

LLM 可能會產生您意料之外的輸出內容,包括令人反感、不敏感或違反事實的文字。由於 LLM 的用途非常廣泛,因此很難預測這些模型可能產生哪些非預期或意料之外的輸出內容。

考量到這些風險和複雜性,Gemini Code Assist 的設計理念是遵循 Google 的 AI 開發原則。不過,使用者必須瞭解 Gemini Code Assist 的部分限制,才能安全且負責任地使用這項工具。

Gemini Code Assist 限制

使用 Gemini Code Assist 時,您可能會遇到下列 (但不限於) 限制:

  • 極端案例:邊緣情況是指訓練資料中未充分呈現的異常、罕見或特殊情況。這些情況可能會導致 Gemini Code Assist 模型的輸出內容受到限制,例如模型過度自信、誤解內容或輸出不當內容。

  • 模擬幻覺、建立基準和事實性。Gemini Code Assist 模型可能缺乏真實世界的知識、物理性質或準確理解的基礎和事實性。這項限制可能會導致模型產生幻覺,Gemini Code Assist 可能會輸出看似合理,但實際上違反事實、無關、不當或毫無意義的內容。幻覺也可能包括捏造連結,連往不存在的網頁。詳情請參閱「為 Gemini for Google Cloud 撰寫更有效的提示」。

  • 資料品質和調整。輸入 Gemini Code Assist 產品的提示資料品質、準確度和偏差,可能會對效能產生重大影響。如果使用者輸入不準確或錯誤的提示,Gemini Code Assist 可能會傳回次佳或錯誤的回覆。

  • 偏差放大。語言模型可能會無意放大訓練資料中現有的偏誤,導致輸出內容進一步強化社會偏見,並對特定族群做出不公平的對待。

  • 語言品質。雖然 Gemini Code Assist 在我們評估的基準測試中展現出令人印象深刻的多語言功能,但大多數的基準測試 (包括所有公平性評估) 都是以美式英文進行。

    語言模型可能會為不同使用者提供不一致的服務品質。舉例來說,文字生成功能可能無法有效處理某些方言或語言變體,因為訓練資料中不常出現這類內容。對於較少人使用的非英文語言或英文變體,成效可能會較差。

  • 公平性基準和子群組Google Research 對 Gemini 模型的平等性分析並未詳述各種潛在風險。舉例來說,我們會著重於性別、種族、族裔和宗教軸線的偏差,但只針對美國英語資料和模型輸出內容進行分析。

  • 專業領域知識有限。Gemini 模型已在 Google Cloud 技術上完成訓練,但可能缺乏提供精確且詳細回覆所需的深度知識,因此無法針對專業或技術性主題提供正確資訊,導致提供膚淺或錯誤的資訊。

Gemini 安全性和有害內容篩選

Gemini Code Assist 會根據各用途適用的安全性屬性完整清單,檢查提示和回應。這些安全性屬性旨在篩除違反《使用限制政策》的內容。如果系統認為輸出內容有害,就會封鎖回應。

後續步驟