使用大型語言模型 (LLM) 開發 Google Workspace 應用程式

本頁面提供最佳做法和建議工具的總覽,協助您使用大型語言模型 (LLM) 開發 Google Workspace 解決方案。

在 Google Workspace 上開發時,LLM 可協助您執行下列操作:

  • 產生或排解呼叫 Google Workspace API 的程式碼。
  • 根據最新的 Google Workspace 開發人員文件建構解決方案。
  • 透過指令列或整合式開發環境 (IDE) 存取 Google Workspace 資源。

使用 Model Context Protocol (MCP) 進行 Google Workspace 開發

模型上下文協定 (MCP) 是一種標準化開放協定,可為 LLM 和 AI 代理程式提供背景資訊,讓這些模型/代理程式在多輪對話中傳回品質更佳的資訊。

Google Workspace 設有 MCP 伺服器,可提供工具供 LLM 存取及搜尋開發人員說明文件。建構或使用 AI 代理程式時,您可以使用這個伺服器執行下列任一操作:

  • 取得 Google Workspace API 和服務的最新資訊。
  • 擷取 Google Workspace 官方說明文件和程式碼片段。

如要使用伺服器,請將這個伺服器新增至 MCP 用戶端設定:

  • 如要將伺服器新增至 Gemini Code Assist,請將下列內容加入 settings.json 檔案:

    {
      "mcpServers": {
        "workspace-developer": {
          "httpUrl": "https://workspace-developer.goog/mcp",
          "trust": true
        },
      }
    }
    
  • 如要將伺服器安裝為 Gemini CLI 擴充功能,請在終端機中執行下列指令:

    gemini extensions install https://github.com/googleworkspace/developer-tools
    

如要提升伺服器的輸出內容品質,請新增規則,指示 LLM 在使用 Google Workspace API 時使用伺服器。舉例來說,如果將伺服器做為 Gemini CLI 擴充功能使用,請在 GEMINI.md 檔案中新增下列規則:

Always use the `workspace-developer` tools when using Google Workspace APIs.

使用 AI 程式碼輔助功能

建議您將下列 AI 程式碼輔助工具納入 Google Workspace 開發工作流程: