Cette page a été traduite par l'API Cloud Translation. Grands modèles de langage: tester vos connaissances Revenir au parcours Combien de 2 grammes (bigrammes) sont présents dans l'expression suivante: they visited New York last week 3 4 5 6 Quels attributs des grands modèles de langage lui permettent d'obtenir de meilleures prédictions que les autres types de modèles de langage ? (Sélectionnez toutes les réponses qui s'appliquent.) Choisissez autant de réponses que vous jugez nécessaires. Les LLM contiennent beaucoup plus de paramètres. Les LLM recueillent plus de contexte. Les LLM n'ont pas besoin d'être entraînés sur autant de données. Les LLM n'hallucinent jamais. Vrai ou faux: un modèle Transformer complet se compose à la fois d'un encodeur et d'un décodeur. Vrai Faux Un LLM est entraîné sur un vaste corpus de données qui inclut l'exemple suivant: My cousin's new fashion line is so cool! Quel mécanisme permet au LLM d'apprendre que dans cette phrase, "cool" signifie très probablement "excellent" et ne se réfère pas à la température des vêtements ? Ingénierie des invites Décodeur Distillation Soi-même Parmi les affirmations suivantes concernant l'affinage et la distillation, laquelle est vraie ? L'affinage augmente le nombre de paramètres dans le modèle, tandis que la distillation le réduit. L'affinage augmente généralement la qualité des prédictions du modèle, tandis que la distillation les diminue. L'affinage est effectué sur les modèles de texte, tandis que la distillation est effectuée sur les modèles d'images. Aucune des réponses ci-dessus n'est vraie. Envoyer les réponses error_outline Une erreur s'est produite lors de la notation du quiz. Veuillez réessayer.