Glossaire sur le machine learning: IA générative

Cette page contient les termes du glossaire de l'IA générative. Pour voir tous les termes du glossaire, cliquez ici.

A

modèle autorégressif

#language
#image
#IAgénérative

model qui infère une prédiction à partir de ses propres prédictions précédentes. Par exemple, les modèles de langage autorégressifs prédisent le jeton suivant en fonction des jetons précédemment prédits. Tous les grands modèles de langage basés sur Transformer sont autorégressifs.

En revanche, les modèles d'image basés sur le GAN ne sont généralement pas autorégressifs, car ils génèrent une image en une seule passe avant et non par étapes itérative. Cependant, certains modèles de génération d'images sont autorégressifs, car ils génèrent une image par étapes.

C

requête basée sur une chaîne de pensée

#language
#IAgénérative

Technique d'ingénierie rapide qui encourage un grand modèle de langage (LLM) à expliquer son raisonnement, étape par étape. Par exemple, considérons l'invite suivante, en accordant une attention particulière à la deuxième phrase:

Combien de forces g un conducteur peut-il rencontrer dans une voiture qui passe de 0 à 60 miles par heure en 7 secondes ? Dans la réponse, affichez tous les calculs pertinents.

La réponse du LLM est susceptible de:

  • Affichez une séquence de formules physiques en saisissant les valeurs 0, 60 et 7 aux emplacements appropriés.
  • Expliquez pourquoi il a choisi ces formules et ce que signifient les différentes variables.

La invite de chaîne de pensée oblige le LLM à effectuer tous les calculs, ce qui peut conduire à une réponse plus correcte. En outre, la requête de chaîne de pensée permet à l'utilisateur d'examiner les étapes du LLM pour déterminer si la réponse est pertinente ou non.

D

requête directe

#language
#IAgénérative

Synonyme de requête zero-shot.

distillation

#IAgénérative

Processus consistant à réduire la taille d'un model (model) en un modèle plus petit (l'model) qui émule aussi fidèlement que possible les prédictions du modèle d'origine. La distillation est utile, car le plus petit modèle présente deux avantages clés par rapport au modèle plus grand (l'enseignant):

  • Délai d'inférence plus court
  • Réduction de la consommation de mémoire et d'énergie

Cependant, les prédictions de l'élève ne sont généralement pas aussi bonnes que celles de l'enseignant.

La distillation entraîne le modèle des élèves à minimiser une fonction de perte basée sur la différence entre les résultats des prédictions des modèles élève et enseignant.

Comparez la distillation avec les termes suivants:

F.

requête few-shot

#language
#IAgénérative

Une invite contenant plusieurs (quelques exemples) démontrant la manière dont le grand modèle de langage doit répondre. Par exemple, la longue invite suivante contient deux exemples montrant un grand modèle de langage pour savoir comment répondre à une requête.

Composantes d'une requête Notes
Quelle est la devise officielle du pays spécifié ? Question à laquelle vous voulez que le LLM réponde.
France: EUR Prenons un exemple.
Royaume-Uni: GBP Voici un autre exemple.
Inde: Requête réelle.

La requête few-shot produit généralement plus de résultats que les invites zero-shot et les invites one-shot. Cependant, la requête few-shot nécessite une invite plus longue.

La requête few-shot est une forme d'apprentissage few-shot appliquée à l'apprentissage rapide.

réglage

#language
#image
#IAgénérative

Une deuxième carte d'entraînement spécifique à une tâche effectuée sur un modèle pré-entraîné afin d'affiner ses paramètres pour un cas d'utilisation spécifique. Par exemple, la séquence d'entraînement complète pour certains grands modèles de langage se présente comme suit:

  1. Pré-entraînement:entraînez un grand modèle de langage sur un vaste ensemble de données général, tel que toutes les pages Wikipédia en anglais.
  2. Ajustement:entraînez le modèle pré-entraîné à effectuer une tâche spécifique, comme répondre à des requêtes médicales. L'affinage implique généralement des centaines ou des milliers d'exemples axés sur la tâche spécifique.

Dans cet autre exemple, la séquence d'entraînement complète d'un grand modèle d'images se présente comme suit:

  1. Pré-entraînement:entraînez un grand modèle d'images sur un vaste ensemble de données d'images générales, comme toutes les images de Wikimedia commons.
  2. Ajustement:entraînez le modèle pré-entraîné à effectuer une tâche spécifique, telle que la génération d'images d'orques.

Pour l'affiner, vous pouvez combiner les stratégies suivantes:

  • Modifier tous les paramètres existants du modèle pré-entraîné Ce processus est parfois appelé ajustement complet.
  • Modifier uniquement certains des paramètres existants du modèle pré-entraîné (généralement, les couches les plus proches de la couche de sortie), tout en conservant les autres paramètres existants inchangés (en général, les couches les plus proches de la couche d'entrée). Découvrez comment optimiser l'efficacité des paramètres.
  • L'ajout de couches, généralement au-dessus des couches existantes les plus proches de la couche de sortie

L'affinage est une forme d'apprentissage par transfert. Par conséquent, l'affinage peut utiliser une fonction de perte ou un type de modèle différent de ceux utilisés pour entraîner le modèle pré-entraîné. Par exemple, vous pouvez affiner un grand modèle d'images pré-entraîné pour produire un modèle de régression qui renvoie le nombre d'oiseaux dans une image d'entrée.

Comparez et contrastez avec les termes suivants lors des réglages:

G

IA générative

#language
#image
#IAgénérative

Domaine émergent sans définition formelle Cela dit, la plupart des experts s'accordent à dire que les modèles d'IA générative peuvent créer ("générer") des contenus présentant tous les éléments suivants:

  • complexe
  • cohérentes
  • originale

Par exemple, un modèle d'IA générative peut créer des images ou des essais sophistiqués.

Certaines technologies antérieures, telles que les LSTM et les RNN, peuvent également générer du contenu original et cohérent. Certains experts considèrent ces technologies précédentes comme une IA générative, tandis que d'autres estiment que la véritable IA générative nécessite des résultats plus complexes que ceux que ces technologies plus anciennes peuvent produire.

À comparer au ML prédictif.

I

apprentissage en contexte

#language
#IAgénérative

Synonyme de requête few-shot.

réglage des instructions

#IAgénérative

Forme d'affinage qui améliore la capacité d'un modèle d'IA générative à suivre les instructions. Le réglage des instructions consiste à entraîner un modèle selon une série d'instructions, couvrant généralement un large éventail de tâches. Le modèle réglé sur les instructions qui en résulte a alors tendance à générer des réponses utiles aux invites zero-shot pour diverses tâches.

Comparer et différencier:

O

requête one-shot

#language
#IAgénérative

Une invite contenant un exemple illustrant la réponse du grand modèle de langage. L'invite suivante contient un exemple montrant comment répondre à une requête à un grand modèle de langage.

Composantes d'une requête Notes
Quelle est la devise officielle du pays spécifié ? Question à laquelle vous voulez que le LLM réponde.
France: EUR Prenons un exemple.
Inde: Requête réelle.

Comparez et opposez les invites one-shot aux termes suivants:

P

optimisation avec optimisation des paramètres

#language
#IAgénérative

Ensemble de techniques permettant d'affiner un grand modèle de langage pré-entraîné (PLM) plus efficacement que l'affinage complet. L'optimisation avec efficacité des paramètres affine généralement beaucoup moins de paramètres qu'un ajustement complet, mais produit généralement un grand modèle de langage qui fonctionne aussi bien (ou presque aussi) qu'un grand modèle de langage créé à partir d'un ajustement complet.

Comparer et différencier les réglages efficaces avec les paramètres suivants:

Le réglage avec efficacité des paramètres est également connu sous le nom d'optimisation avec efficacité des paramètres.

PLM

#language
#IAgénérative

Abréviation de modèle de langage pré-entraîné.

modèle pré-entraîné

#language
#image
#IAgénérative

Modèles ou composants de modèle (tels qu'un vecteur de représentation vectorielle continue) qui ont déjà été entraînés. Parfois, vous introduisez des vecteurs de représentation vectorielle continue pré-entraînés dans un réseau de neurones. D'autres fois, votre modèle entraîne les vecteurs de représentation vectorielle continue lui-même au lieu de s'appuyer sur les représentations vectorielles continues pré-entraînées.

Le terme modèle de langage pré-entraîné fait référence à un grand modèle de langage qui a fait l'objet d'un pré-entraînement.

pré-entraînement

#language
#image
#IAgénérative

Entraînement initial d'un modèle sur un ensemble de données volumineux. Certains modèles pré-entraînés sont des géants maladroites et doivent généralement être affinés par le biais d'un entraînement supplémentaire. Par exemple, les experts en ML peuvent pré-entraîner un grand modèle de langage sur un vaste ensemble de données textuelles, comme toutes les pages en anglais de Wikipédia. Après le pré-entraînement, le modèle résultant peut être affiné davantage grâce à l'une des techniques suivantes:

invite

#language
#IAgénérative

Tout texte saisi en tant qu'entrée d'un grand modèle de langage pour conditionner le modèle afin qu'il se comporte d'une certaine manière. Les invites peuvent être aussi courtes qu'une expression ou arbitrairement longues (par exemple, l'intégralité du texte d'un roman). Les invites appartiennent à plusieurs catégories, y compris celles présentées dans le tableau suivant:

Catégorie d'invite Exemple Notes
Question À quelle vitesse un pigeon peut-il voler ?
Enseignement Écrivez un poème amusant sur les sites à contenu exclusivement publicitaire. Une requête demandant au grand modèle de langage d'effectuer une action
Exemple Traduire le code Markdown en HTML. Par exemple :
Markdown: * élément de liste
HTML: <ul> <li>élément de liste</li> </ul>
La première phrase de cet exemple de requête est une instruction. Le reste de l'invite est l'exemple.
Rôle Expliquez pourquoi la descente de gradient est utilisée pour entraîner le machine learning vers un doctorat en physique. La première partie de la phrase est une instruction. L'expression "accéder à un doctorat en physique" correspond à la partie du rôle.
Entrée partielle pour l'exécution du modèle Le Premier ministre du Royaume-Uni vit à Une invite d'entrée partielle peut se terminer brusquement (comme dans cet exemple) ou se terminer par un trait de soulignement.

Un modèle d'IA générative peut répondre à une requête avec du texte, du code, des images, des représentations vectorielles continues, des vidéos, etc.

apprentissage rapide

#language
#IAgénérative

Capacité de certains modèles qui leur permet d'adapter leur comportement en réponse à une entrée de texte arbitraire (invites). Dans un paradigme d'apprentissage classique basé sur des invites, un grand modèle de langage répond à une requête en générant du texte. Par exemple, supposons qu'un utilisateur entre l'invite suivante:

Résumons la troisième loi du mouvement de Newton.

Un modèle capable d'apprendre par requête n'est pas spécifiquement entraîné pour répondre à l'invite précédente. Au lieu de cela, le modèle "connaît" de nombreux faits en physique, beaucoup de choses sur les règles générales du langage et beaucoup de choses sur ce qui constitue des réponses généralement utiles. Ces connaissances sont suffisantes pour fournir (nous espérons) une réponse utile. Des commentaires humains supplémentaires ("Cette réponse était trop compliquée" ou "Qu'est-ce qu'une réaction ?") permettent à certains systèmes d'apprentissage basés sur des requêtes d'améliorer progressivement l'utilité de leurs réponses.

conception de requête

#language
#IAgénérative

Synonyme d'ingénierie des invites.

ingénierie des requêtes

#language
#IAgénérative

Création d'invites qui génèrent les réponses souhaitées d'un grand modèle de langage. Les humains effectuent l'ingénierie des requêtes. L'écriture de requêtes bien structurées est essentielle pour garantir des réponses utiles à partir d'un grand modèle de langage. L'ingénierie des invites dépend de nombreux facteurs, y compris:

  • Ensemble de données utilisé pour pré-entraîner et éventuellement affiner le grand modèle de langage.
  • température et autres paramètres de décodage utilisés par le modèle pour générer des réponses.

Pour en savoir plus sur la rédaction de requêtes utiles, consultez la page Présentation de la conception des requêtes.

La conception de requêtes est un synonyme de l'ingénierie des requêtes.

réglage des invites

#language
#IAgénérative

Un mécanisme de réglage efficace des paramètres qui apprend un "préfixe" que le système ajoute à l'invite réelle

Une variante du réglage des invites, parfois appelée réglage des préfixes, consiste à ajouter le préfixe à chaque couche. En revanche, la plupart des réglages des invites n'ajoutent qu'un préfixe à la couche d'entrée.

R

Apprentissage par renforcement à partir des commentaires humains

#IAgénérative
#rl

Utiliser les commentaires d'évaluateurs manuels pour améliorer la qualité des réponses d'un modèle. Par exemple, un mécanisme RLHF peut demander aux utilisateurs d'évaluer la qualité de la réponse d'un modèle avec un emoji 👍 ou 👎. Le système peut alors ajuster ses futures réponses en fonction de ce feedback.

invite de rôle

#language
#IAgénérative

Partie facultative d'une invite qui identifie une audience cible pour la réponse d'un modèle d'IA générative. Sans invite de rôle, un grand modèle de langage fournit une réponse qui peut ou non être utile pour la personne qui pose les questions. Avec une invite de rôle, un grand modèle de langage peut répondre d'une manière plus appropriée et plus utile pour une audience cible spécifique. Par exemple, la partie d'invite de rôle des invites suivantes est en gras:

  • Résumez cet article pour un doctorat en économie.
  • Décrire le fonctionnement des marées pour un enfant de dix ans.
  • Expliquer la crise financière de 2008 Parlez comme vous le feriez avec un jeune enfant ou un golden retriever.

T

température

#language
#image
#IAgénérative

Hyperparamètre qui contrôle le degré de hasard de la sortie d'un modèle. Des températures plus élevées génèrent une sortie plus aléatoire, tandis qu'une température plus basse produit moins de résultats aléatoires.

Le choix de la température optimale dépend de l'application spécifique et des propriétés souhaitées de la sortie du modèle. Par exemple, vous augmenterez probablement la température lorsque vous créerez une application qui générera des créations. À l'inverse, il est probable que la température baisse lors de la création d'un modèle qui classe des images ou du texte afin d'améliorer la précision et la cohérence du modèle.

La température est souvent utilisée avec softmax.

Z

requête zero-shot

#language
#IAgénérative

Une invite qui ne fournit pas d'exemple de la manière dont vous souhaitez que le grand modèle de langage réponde. Exemple :

Composantes d'une requête Notes
Quelle est la devise officielle du pays spécifié ? Question à laquelle vous voulez que le LLM réponde.
Inde: Requête réelle.

Le grand modèle de langage peut répondre par l'un des éléments suivants:

  • Roupie
  • INR
  • Roupie indienne
  • La roupie
  • Roupie indienne

Toutes les réponses sont correctes, mais vous préférerez peut-être un format particulier.

Comparez et opposez les invites zero-shot avec les termes suivants: