LLM: Ajuste, destilación e ingeniería de instrucciones

En la unidad anterior, se describieron los LLM de uso general de forma variada conocida como:

  • LLM de base
  • LLM base
  • LLM previamente entrenados

Un LLM de base se entrena con suficiente lenguaje natural para "conocer" un extraordinario sobre gramática, palabras y modismos. Un modelo de lenguaje de base puede generar oraciones útiles sobre temas sobre los que se entrena. Además, un LLM de base puede realizar ciertas tareas denominadas tradicionalmente "creativos", como escribir poesía. Sin embargo, el texto generativo de un LLM de base no es una solución para otros tipos de problemas comunes del AA, como como el tipo de regresión o clasificación. Para estos casos de uso, un LLM de base puede entregar como plataforma en lugar de como solución.

Transforma un LLM de base en una solución que cumpla con los requisitos necesidades de los usuarios requiere un proceso llamado ajuste. Un proceso secundario llamado destilación genera una versión más pequeña (con menos parámetros) de la versión ajustada un modelo de responsabilidad compartida.

Ajuste

Las investigaciones demuestran que las capacidades de reconocimiento de patrones de las bases los modelos de lenguaje son tan potentes que a veces requieren poco capacitación adicional para aprender tareas específicas. Ese entrenamiento adicional ayuda al modelo a hacer mejores predicciones. en una tarea específica. Esta capacitación adicional, llamada ajuste, desbloquea el lado práctico de los LLM.

El ajuste se entrena con ejemplos específicos para la tarea que tu aplicación realiza. para las tareas que realizará cada rol. A veces, los ingenieros pueden ajustar un LLM de base con solo unos pocos cientos o miles de ejemplos de entrenamiento.

A pesar de los pocos ejemplos de entrenamiento, suele ser costoso en términos de procesamiento. Esto se debe a que el ajuste estándar implica actualizar la ponderación y el sesgo de cada parámetro en cada iteración de propagación inversa. Por suerte, un proceso más inteligente llamado eficaz en parámetros ajuste puedes ajustar un LLM ajustando solo un subconjunto de parámetros en cada de propagación inversa.

Las predicciones de un modelo ajustado suelen ser mejores que las de los LLM de base predicciones. Sin embargo, un modelo ajustado contiene la misma cantidad de como el LLM de base. Entonces, si un LLM de base contiene diez mil millones parámetros, la versión ajustada también contendrá diez mil millones parámetros.

Extracción

La mayoría de los LLM ajustados contienen una enorme cantidad de parámetros. Por lo tanto, los LLM de base requieren enormes recursos computacionales y ambientales para generar predicciones. Ten en cuenta que las franjas grandes de esos parámetros se normalmente irrelevantes para una aplicación específica.

Destilación crea una versión más pequeña de un LLM. El LLM sintetizado genera predicciones mucho más rápido y requiere menos recursos computacionales y ambientales que el LLM completo. Sin embargo, las predicciones del modelo sintetizado no suelen tan buenas como las predicciones del LLM original. Recuerda que los LLM los parámetros casi siempre generan mejores predicciones que los LLM con menos parámetros.

Ingeniería de instrucciones

Ingeniería de instrucciones permite que los usuarios finales de un LLM personalicen la salida del modelo. Es decir, los usuarios finales aclaran cómo debe responder el LLM a su instrucción.

Los seres humanos aprenden bien a partir de ejemplos. Los LLM también. Se muestra un ejemplo a un LLM se llama instrucciones con un solo ejemplo. Por ejemplo, supongamos que quieres que un modelo use el siguiente formato para generar la familia de las frutas:

El usuario ingresa el nombre de una fruta: el LLM muestra la clase de esa fruta.

Una instrucción con un solo ejemplo muestra al LLM un único ejemplo del formato anterior. y, luego, le pide al LLM que complete una consulta basada en ese ejemplo. Por ejemplo:

peach: drupe
apple: ______

A veces, un solo ejemplo es suficiente. Si es así, el LLM genera una instrucción para la predicción. Por ejemplo:

apple: pome

En otras situaciones, un solo ejemplo no es suficiente. Es decir, el usuario debe muestran los múltiples ejemplos de LLM. Por ejemplo, el siguiente mensaje contiene dos ejemplos:

plum: drupe
pear: pome
lemon: ____

Proporcionar varios ejemplos se denomina instrucción con ejemplos limitados. Puedes pensar en las dos primeras líneas de la instrucción anterior como entrenamiento ejemplos.

¿Puede un LLM proporcionar predicciones útiles sin ejemplos (sin ejemplos) mensajes)? A veces, pero a los LLM, como el contexto. Sin contexto, la siguiente instrucción sin ejemplos podría devolver información sobre la empresa de tecnología en lugar de la fruta:

apple: _______

Inferencia sin conexión

En ocasiones, la cantidad de parámetros en un LLM es grandes que la inferencia en línea es demasiado lenta para ser práctica en tareas del mundo real, como la regresión o clasificación. En consecuencia, muchos equipos de ingeniería inferencia sin conexión (también conocida como inferencia masiva o inferencia estática). En otras palabras, en lugar de responder a las consultas en el momento de la entrega, el modelo entrenado hace predicciones con anticipación y, luego, las almacena en caché.

No importa si un LLM tarda mucho tiempo en completar su tarea si el LLM solo tiene que realizar la tarea una vez a la semana o una vez al mes.

Por ejemplo, la Búsqueda de Google usaste un LLM realizar inferencias sin conexión a fin de almacenar en caché una lista de más de 800 sinónimos sobre las vacunas contra el COVID-19 en más de 50 idiomas. Luego, la Búsqueda de Google utilizó lista almacenada en caché para identificar las consultas sobre vacunas en el tráfico en vivo.

Usa LLM de manera responsable

Como cualquier tipo de aprendizaje automático, por lo general, los LLM comparten los siguientes sesgos:

  • Los datos con los que se entrenaron.
  • Los datos sobre los que se extrajeron.

Usa los LLM de manera justa y responsable de acuerdo con las lecciones presentadas. anteriormente en este curso.

Ejercicio: Comprueba tus conocimientos

¿Cuál de las siguientes afirmaciones sobre los LLM es verdadera?
Un LLM destilado contiene menos parámetros que la base. de lenguaje natural del que surgió.
Sí, la síntesis reduce la cantidad de parámetros.
Un LLM ajustado contiene menos parámetros que la base de lenguaje extenso con el que se entrenó.
Un modelo ajustado contiene la misma cantidad de parámetros que modelo de lenguaje de base original.
A medida que los usuarios realizan más ingeniería de instrucciones, la cantidad de parámetros en un LLM crece.
La ingeniería de instrucciones no agrega (ni quita ni altera) el LLM parámetros.