Gemini Nano 的提示设计

使用 Prompt API 时,您可以采用一些特定策略来定制提示并获得理想的结果。本页介绍了针对 Gemini Nano 设置提示格式的最佳实践。

如需了解更通用的提示工程指导,请参阅提示工程白皮书生成式 AI 的提示工程提示设计策略

或者,如需自动优化和改进提示,您可以使用零样本优化器,该优化器可以针对设备端模型(例如 gemma-3n-e4b-it)进行优化。

提示设计最佳实践

为 Prompt API 设计提示时,请使用以下技巧:

  • 提供上下文学习示例。在提示中添加分布均匀的示例,向 Gemini Nano 展示您期望的结果类型。

    使用上下文学习时,请考虑使用前缀缓存功能,因为提供示例会使提示更长,并增加推理时间。

  • 简明扼要。包含重复指令的冗长前导可能会产生次优结果。确保提示简明扼要。

  • 结构化提示可生成更有效的回答,例如此提示模板示例,其中明确定义了指令、限制和示例。

  • 保持输出简短。LLM 推理速度在很大程度上取决于输出长度。请仔细考虑如何针对您的使用情形生成尽可能简短的输出,并进行人工后处理,以将输出结构化为所需的格式。

  • 添加分隔符。使用 <background_information><instruction>## 等分隔符来分隔提示的不同部分。在组件之间使用 ## 对于 Gemini Nano 尤其重要,因为它可以显著降低模型无法正确解读每个组件的几率。

  • 偏好简单逻辑和更专注的任务。如果您发现,对于需要多步推理的提示(例如,先执行 X,如果 X 的结果是 A,则执行 M;否则执行 N;然后执行 Y...),很难获得理想的结果,请考虑将任务分解开来,让每次 Gemini Nano 调用处理一个更专注的任务,同时使用代码将多次调用链接在一起。

  • 对于确定性任务,请使用较低的温度值。对于不依赖于创意性的任务(例如实体提取或翻译),请考虑从 temperature 值为 0.2 开始,并根据测试结果调整此值。