Conception de requêtes pour Gemini Nano

Lorsque vous utilisez l'API Prompt, vous pouvez appliquer des stratégies spécifiques pour personnaliser vos requêtes et obtenir des résultats optimaux. Cette page décrit les bonnes pratiques à suivre pour mettre en forme les requêtes pour Gemini Nano.

Pour obtenir des conseils plus généraux sur le prompt engineering, consultez les livres blancs sur le prompt engineering, Prompt engineering pour l'IA générative et Stratégies de conception d'invites.

Vous pouvez également utiliser l'optimiseur zero-shot pour affiner et améliorer automatiquement les requêtes. Il peut cibler les modèles sur l'appareil tels que gemma-3n-e4b-it.

Conception des invites – Bonnes pratiques

Lorsque vous concevez des requêtes pour l'API Prompt, utilisez les techniques suivantes :

  • Fournissez des exemples pour l'apprentissage en contexte. Ajoutez des exemples bien répartis à votre requête pour montrer à Gemini Nano le type de résultat que vous attendez.

    Envisagez d'utiliser la fonctionnalité de mise en cache des préfixes lorsque vous utilisez l'apprentissage en contexte, car fournir des exemples allonge la requête et augmente le temps d'inférence.

  • Soyez concis. Les préambules trop longs avec des instructions répétées peuvent produire des résultats non optimaux. Veillez à ce que votre requête soit ciblée et précise.

  • Structurez vos requêtes pour générer des réponses plus efficaces. Par exemple, utilisez ce modèle de requête qui définit clairement les instructions, les contraintes et les exemples.

  • Soyez concis. Les vitesses d'inférence des LLM dépendent fortement de la longueur de la sortie. Réfléchissez bien à la façon dont vous pouvez générer la sortie la plus courte possible pour votre cas d'utilisation et effectuez un post-traitement manuel pour structurer la sortie dans le format souhaité.

  • Ajoutez des délimiteurs. Utilisez des délimiteurs tels que <background_information>, <instruction> et ## pour séparer les différentes parties de votre requête. L'utilisation de ## entre les composants est particulièrement importante pour Gemini Nano, car elle réduit considérablement les risques que le modèle ne parvienne pas à interpréter correctement chaque composant.

  • Vous préférez une logique simple et une tâche plus ciblée. Si vous avez du mal à obtenir de bons résultats avec une requête nécessitant un raisonnement en plusieurs étapes (par exemple, fais d'abord X, si le résultat de X est A, fais M ; sinon, fais N ; puis fais Y...), envisagez de diviser la tâche et de laisser chaque appel Gemini Nano gérer une tâche plus ciblée, tout en utilisant du code pour enchaîner plusieurs appels.

  • Utilisez des valeurs de température plus basses pour les tâches déterministes. Pour les tâches telles que l'extraction d'entités ou la traduction qui ne reposent pas sur la créativité, envisagez de commencer par une valeur temperature de 0.2, puis ajustez cette valeur en fonction de vos tests.