本頁面提供最佳做法和建議工具的總覽,協助您使用大型語言模型 (LLM) 開發 Google Workspace 解決方案。
在 Google Workspace 上開發時,LLM 可協助您執行下列操作:
- 產生或排解呼叫 Google Workspace API 的程式碼。
- 根據最新的 Google Workspace 開發人員文件建構解決方案。
- 透過指令列或整合式開發環境 (IDE) 存取 Google Workspace 資源。
使用 Model Context Protocol (MCP) 進行 Google Workspace 開發
模型上下文協定 (MCP) 是一種標準化開放協定,可為 LLM 和 AI 代理程式提供背景資訊,讓這些模型/代理程式在多輪對話中傳回品質更佳的資訊。
Google Workspace 設有 MCP 伺服器,可提供工具供 LLM 存取及搜尋開發人員說明文件。建構或使用 AI 代理程式時,您可以使用這個伺服器執行下列任一操作:
- 取得 Google Workspace API 和服務的最新資訊。
- 擷取 Google Workspace 官方說明文件和程式碼片段。
如要使用伺服器,請將這個伺服器新增至 MCP 用戶端設定:
如要將伺服器新增至 Gemini Code Assist,請將下列內容加入
settings.json
檔案:{ "mcpServers": { "workspace-developer": { "httpUrl": "https://workspace-developer.goog/mcp", "trust": true }, } }
如要將伺服器安裝為 Gemini CLI 擴充功能,請在終端機中執行下列指令:
gemini extensions install https://github.com/googleworkspace/developer-tools
如要提升伺服器的輸出內容品質,請新增規則,指示 LLM 在使用 Google Workspace API 時使用伺服器。舉例來說,如果將伺服器做為 Gemini CLI 擴充功能使用,請在 GEMINI.md
檔案中新增下列規則:
Always use the `workspace-developer` tools when using Google Workspace APIs.
使用 AI 程式碼輔助功能
建議您將下列 AI 程式碼輔助工具納入 Google Workspace 開發工作流程:
Google AI Studio:為 Google Workspace 解決方案生成程式碼,包括 Google Apps Script 專案的程式碼。
Gemini Code Assist:在 IDE 中使用 Gemini 2.5 模型,取得 AI 輔助。