本页概述了使用大语言模型 (LLM) 为 Google Workspace 开发解决方案的最佳实践和推荐工具。
在 Google Workspace 上进行开发时,LLM 可通过以下方式为您提供帮助:
- 生成或排查用于调用 Google Workspace API 的代码。
- 根据最新的 Google Workspace 开发者文档构建解决方案。
- 通过命令行或集成式开发环境 (IDE) 访问 Google Workspace 资源。
使用 Model Context Protocol (MCP) 进行 Google Workspace 开发
Model Context Protocol (MCP) 是一种标准化的开放协议,可为 LLM 和 AI 智能体提供上下文,以便它们在多轮对话中返回更高质量的信息。
Google Workspace 具有一个 MCP 服务器,可为 LLM 提供用于访问和搜索开发者文档的工具。在构建或使用 AI 代理时,您可以使用此服务器执行以下任何操作:
- 检索有关 Google Workspace API 和服务的最新信息。
- 获取官方 Google Workspace 文档和代码段。
首先,请将此服务器添加到您的 MCP 客户端配置中。例如,如需将服务器添加到 Gemini Code Assist,请将以下内容添加到 settings.json
文件中:
{
"mcpServers": {
"workspace-developer": {
"httpUrl": "https://workspace-developer.goog/mcp",
"trust": true
},
}
}
为了提高工具的使用率,可能需要在规则文件(例如 GEMINI.md
)中添加类似于以下内容的指令:
Always use the `workspace-developer` tools when using Google Workspace APIs.
使用 AI 代码助理
建议您将以下 AI 代码辅助工具纳入 Google Workspace 开发工作流:
Google AI Studio:为您的 Google Workspace 解决方案生成代码,包括 Google Apps 脚本项目的代码。
Gemini Code Assist:让您直接在 IDE 中使用 LLM,并包含用于访问 Google 文档的
@googledocs
命令。