Gemini Code Assist et IA responsable

Ce document décrit la conception de Gemini Code Assist en fonction des capacités, des limites et des risques associés à l'IA générative.

Capacités et risques des grands modèles de langage

Les grands modèles de langage (LLM) peuvent effectuer de nombreuses tâches utiles, par exemple:

  • Traduire la langue.
  • Résumer du texte
  • Générer du code et écrire de manière créative
  • Alimentez les chatbots et les assistants virtuels.
  • Compléter les moteurs de recherche et les systèmes de recommandation

Parallèlement, les capacités techniques en constante évolution des LLM peuvent être sujettes à une mauvaise application, une utilisation abusive et des conséquences inattendues ou imprévues.

Les LLM peuvent générer des résultats inattendus, y compris du texte offensant, insensible ou incorrect. Étant donné que les LLM sont incroyablement polyvalents, il peut être difficile de prédire exactement les types de résultats involontaires ou imprévus qu'ils pourraient produire.

Compte tenu de ces risques et de ces complexités, Gemini Code Assist est conçu en tenant compte des principes de l'IA de Google. Toutefois, il est important que les utilisateurs comprennent certaines des limites de Gemini Code Assist pour travailler en toute sécurité et de manière responsable.

Limites de Gemini Code Assist

Voici quelques-unes des limitations que vous pouvez rencontrer lors de l'utilisation de Gemini Code Assist:

  • Cas particuliers Les cas particuliers font référence à des situations inhabituelles, rares ou exceptionnelles qui ne sont pas bien représentées dans les données d'entraînement. Ces cas peuvent entraîner des limites dans la sortie des modèles Gemini Code Assist, telles que la confiance excessive du modèle, une mauvaise interprétation du contexte ou des sorties inappropriées.

  • Modéliser les hallucinations, l'ancrage et la factualité Les modèles Gemini Code Assist peuvent manquer de base et de factualité dans les connaissances réelles, les propriétés physiques ou la compréhension précise. Cette limitation peut conduire à des blocages du modèle, c'est-à-dire des instances dans lesquelles Gemini Code Assist peut générer des résultats qui semblent plausibles, mais qui sont en fait incorrects, non pertinents, inappropriés ou absurdes. Les hallucinations peuvent également inclure la création de liens vers des pages Web qui n'existent pas et n'ont jamais existé. Pour en savoir plus, consultez la section Rédiger de meilleures requêtes pour Gemini pour Google Cloud.

  • Qualité et réglage des données La qualité, la précision et le biais des données de requête saisies dans les produits Gemini Code Assist peuvent avoir un impact significatif sur leurs performances. Si les utilisateurs saisissent des requêtes inexactes ou incorrectes, Gemini Code Assist peut renvoyer des réponses non optimales ou fausses.

  • Amplification des biais Les modèles de langage peuvent amplifier par inadvertance les biais existants dans leurs données d'entraînement, ce qui peut se traduire par un renforcement supplémentaire des préjugés sociétaux et du traitement inégal de certains groupes.

  • Qualité de la langue Bien que Gemini Code Assist fournisse des fonctionnalités multilingues impressionnantes aux benchmarks que nous avons évalués, la majorité des benchmarks (y compris toutes les évaluations d'équité) sont en anglais américain.

    Les modèles de langage peuvent fournir une qualité de service incohérente à différents utilisateurs. Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variantes de langues, car ils sont sous-représentés dans les données d'entraînement. Les performances peuvent être inférieures pour les langues autres que l'anglais ou pour les langues anglaises moins représentées.

  • Benchmarks et sous-groupes d'équité Les analyses d'équité des modèles Gemini de Google Research ne fournissent pas un compte exhaustif des différents risques potentiels. Par exemple, nous nous concentrons sur les biais en fonction du genre, de l'origine ethnique, de la philosophie et de la culture, mais nous n'effectuons l'analyse que sur les données en anglais américain et les résultats du modèle.

  • Expertise limitée dans le domaine. Les modèles Gemini ont été entraînés sur la technologie Google Cloud, mais ils peuvent ne pas posséder les connaissances nécessaires pour fournir des réponses précises et détaillées sur des sujets hautement spécialisés ou techniques, ce qui entraîne des informations superficielles ou incorrectes.

Filtrage de sécurité et de toxicité Gemini

Les requêtes et les réponses de Gemini Code Assist sont comparées à une liste complète d'attributs de sécurité, le cas échéant, pour chaque cas d'utilisation. Ces attributs de sécurité visent à filtrer les contenus qui ne respectent pas notre Politique d'utilisation autorisée. Si une sortie est considérée comme dangereuse, la réponse est bloquée.

Étape suivante