En esta página, se incluyen términos del glosario de la IA generativa. Para consultar todos los términos del glosario, haz clic aquí.
A
adaptación
Sinónimo de ajuste o ajuste fino.
Evaluación automática
Usar software para juzgar la calidad del resultado de un modelo
Cuando el resultado del modelo es relativamente sencillo, una secuencia de comandos o un programa pueden comparar el resultado del modelo con una respuesta ideal. A veces, este tipo de evaluación automática se denomina evaluación programática. Las métricas como ROUGE o BLEU suelen ser útiles para la evaluación programática.
Cuando el resultado del modelo es complejo o no tiene una respuesta correcta, a veces, un programa de AA independiente llamado calificador automático realiza la evaluación automática.
Compara esto con la evaluación humana.
Evaluación del evaluador automático
Es un mecanismo híbrido para juzgar la calidad del resultado de un modelo de IA generativa que combina la evaluación humana con la evaluación automática. Un evaluador automático es un modelo de AA entrenado con datos creados por la evaluación humana. Lo ideal es que un autor aprenda a imitar a un evaluador humano.Hay autorraters prediseñados disponibles, pero los mejores se ajustan específicamente para la tarea que evalúas.
Modelo autorregresivo
Un modelo que infiere una predicción en función de sus propias predicciones anteriores. Por ejemplo, los modelos de lenguaje autorregresivos predicen el siguiente token en función de los tokens predichos anteriormente. Todos los modelos de lenguaje grandes basados en Transformer son de regresión automática.
En cambio, los modelos de imágenes basados en GAN no suelen ser autorregresivos, ya que generan una imagen en un solo pase hacia adelante y no de forma iterativa en pasos. Sin embargo, ciertos modelos de generación de imágenes son autorregresivos porque generan una imagen en pasos.
B
modelo base
Un modelo previamente entrenado que puede servir como punto de partida para el ajuste para abordar tareas o aplicaciones específicas.
Consulta también modelo previamente entrenado y modelo fundamental.
C
Cadena de pensamientos
Una técnica de ingeniería de instrucciones que alienta a un modelo de lenguaje grande (LLM) a explicar su razonamiento paso a paso. Por ejemplo, considera la siguiente instrucción, y presta especial atención a la segunda oración:
¿Cuántas fuerzas G experimentaría un conductor en un automóvil que va de 0 a 96.56 km/h en 7 segundos? En la respuesta, muestra todos los cálculos pertinentes.
Es probable que la respuesta del LLM haga lo siguiente:
- Muestra una secuencia de fórmulas físicas, reemplazando los valores 0, 60 y 7 en los lugares correspondientes.
- Explica por qué eligió esas fórmulas y qué significan las distintas variables.
La instrucción de cadena de pensamientos obliga al LLM a realizar todos los cálculos, lo que podría generar una respuesta más correcta. Además, las instrucciones de encadenamiento de pensamiento permiten que el usuario examine los pasos del LLM para determinar si la respuesta tiene sentido.
chatear
Contenido de un diálogo bidireccional con un sistema de AA, por lo general, un modelo de lenguaje grande. La interacción anterior en un chat (lo que escribiste y cómo respondió el modelo de lenguaje grande) se convierte en el contexto para las partes posteriores del chat.
Un chatbot es una aplicación de un modelo de lenguaje grande.
embedding de lenguaje contextualizado
Una incorporación que se acerca a la "comprensión" de palabras y frases de formas en que pueden hacerlo los hablantes humanos fluidos. Las incorporaciones de lenguaje contextualizadas pueden comprender la sintaxis, la semántica y el contexto complejos.
Por ejemplo, considera los embeddings de la palabra en inglés cow. Las incorporaciones más antiguas, como word2vec, pueden representar palabras en inglés de modo que la distancia en el espacio de incorporación de vaca a toro sea similar a la distancia de oveja (oveja hembra) a carnero (oveja macho) o de mujer a hombre. Las incorporaciones de lenguaje contextualizadas pueden ir un paso más allá y reconocer que los angloparlantes a veces usan la palabra cow de manera informal para referirse a una vaca o a un toro.
ventana de contexto
Es la cantidad de tokens que un modelo puede procesar en una instrucción determinada. Cuanto más grande sea la ventana de contexto, más información podrá usar el modelo para proporcionar respuestas coherentes y uniformes a la instrucción.
D
Instrucción directa
Sinónimo de instrucción sin ejemplos.
destilación
Proceso de reducir el tamaño de un modelo (conocido como profesor) en un modelo más pequeño (conocido como estudiante) que emula las predicciones del modelo original con la mayor fidelidad posible. La destilación es útil porque el modelo más pequeño tiene dos beneficios clave en comparación con el modelo más grande (el profesor):
- Tiempo de inferencia más rápido
- Menor uso de memoria y energía
Sin embargo, las predicciones del estudiante no suelen ser tan buenas como las del profesor.
La destilación entrena al modelo estudiante para minimizar una función de pérdida basada en la diferencia entre los resultados de las predicciones de los modelos estudiante y profesor.
Compara y contrasta la destilación con los siguientes términos:
Consulta LLMs: Ajuste, destilación y diseño de instrucciones en el Curso intensivo de aprendizaje automático para obtener más información.
E
evals
Se usa principalmente como abreviatura de evaluaciones de LLM. En términos más generales, evals es la abreviatura de cualquier forma de evaluación.
sin conexión
Proceso para medir la calidad de un modelo o comparar diferentes modelos entre sí.
Para evaluar un modelo de aprendizaje automático supervisado, por lo general, lo comparas con un conjunto de validación y un conjunto de prueba. Evaluar un LLM suele implicar evaluaciones más amplias de calidad y seguridad.
F
Facticidad
En el mundo del AA, una propiedad que describe un modelo cuya salida se basa en la realidad. La facticidad es un concepto, no una métrica. Por ejemplo, supongamos que envías la siguiente instrucción a un modelo de lenguaje grande:
¿Cuál es la fórmula química de la sal de mesa?
Un modelo que optimice la facticidad respondería de la siguiente manera:
NaCl
Es tentador suponer que todos los modelos deben basarse en la facticidad. Sin embargo, algunas instrucciones, como las siguientes, deberían hacer que un modelo de IA generativa optimice la creatividad en lugar de la facticidad.
Cuéntame un limerick sobre un astronauta y una oruga.
Es poco probable que la limerick resultante se base en la realidad.
Compara esto con la fundamentación.
Decaimiento rápido
Técnica de entrenamiento para mejorar el rendimiento de los LLM La disminución rápida implica reducir rápidamente la tasa de aprendizaje durante el entrenamiento. Esta estrategia ayuda a evitar que el modelo se sobreajuste a los datos de entrenamiento y mejora la generalización.
Instrucción con varios ejemplos
Un prompt que contiene más de un ejemplo (algunos) que demuestran cómo debe responder el modelo de lenguaje extenso. Por ejemplo, la siguiente instrucción extensa contiene dos ejemplos que muestran a un modelo de lenguaje grande cómo responder una búsqueda.
Partes de una instrucción | Notas |
---|---|
¿Cuál es la moneda oficial del país especificado? | La pregunta que quieres que responda el LLM. |
Francia: EUR | Veamos un ejemplo. |
Reino Unido: GBP | Otro ejemplo. |
India: | Es la búsqueda real. |
En general, la instrucción con varios ejemplos produce resultados más deseables que la instrucción sin ejemplos y la instrucción con un solo ejemplo. Sin embargo, las instrucciones con pocos ejemplos requieren instrucciones más largas.
La instrucción con ejemplos limitados es una forma de aprendizaje en pocos intentos que se aplica al aprendizaje basado en instrucciones.
Consulta Ingeniería de instrucciones en el Curso intensivo de aprendizaje automático para obtener más información.
Ajuste
Es un segundo paso de entrenamiento específico para la tarea que se realiza en un modelo entrenado previamente para refinar sus parámetros para un caso de uso específico. Por ejemplo, la secuencia de entrenamiento completa para algunos modelos de lenguaje grandes es la siguiente:
- Entrenamiento previo: Entrena un modelo de lenguaje grande con un vasto conjunto de datos generales, como todas las páginas de Wikipedia en inglés.
- Ajuste: Entrena el modelo previamente entrenado para realizar una tarea específica, como responder preguntas médicas. Por lo general, el ajuste implica cientos o miles de ejemplos enfocados en la tarea específica.
Como otro ejemplo, la secuencia de entrenamiento completa para un modelo de imágenes grande es la siguiente:
- Entrenamiento previo: Entrena un modelo de imágenes grande en un vasto conjunto de datos de imágenes generales, como todas las imágenes de Wikimedia Commons.
- Ajuste: Entrena el modelo previamente entrenado para realizar una tarea específica, como generar imágenes de orcas.
El ajuste puede implicar cualquier combinación de las siguientes estrategias:
- Modificar todos los parámetros existentes del modelo previamente entrenado A veces, esto se denomina ajuste fino completo.
- Modificar solo algunos de los parámetros existentes del modelo entrenado previamente (por lo general, las capas más cercanas a la capa de salida), mientras se mantienen sin cambios otros parámetros existentes (por lo general, las capas más cercanas a la capa de entrada). Consulta Ajuste eficiente de parámetros.
- Se agregan más capas, por lo general, sobre las capas existentes más cercanas a la capa de salida.
El ajuste es una forma de aprendizaje por transferencia. Por lo tanto, el ajuste puede usar una función de pérdida o un tipo de modelo diferente de los que se usan para entrenar el modelo previamente entrenado. Por ejemplo, podrías ajustar un modelo de imágenes grandes previamente entrenado para producir un modelo de regresión que devuelva la cantidad de aves en una imagen de entrada.
Compara y contrasta el ajuste fino con los siguientes términos:
Consulta Ajuste fino en el Curso intensivo de aprendizaje automático para obtener más información.
Modelo de flash
Una familia de modelos Gemini relativamente pequeños y optimizados para la velocidad y la baja latencia. Los modelos Flash están diseñados para una amplia variedad de aplicaciones en las que las respuestas rápidas y la alta capacidad de procesamiento son fundamentales.
modelo de base
Un modelo previamente entrenado muy grande entrenado con un conjunto de entrenamiento enorme y diverso. Un modelo de base puede hacer lo siguiente:
- Responder bien a una amplia variedad de solicitudes
- Sirve como un modelo base para ajustes adicionales o cualquier otra personalización.
En otras palabras, un modelo de base ya es muy capaz en un sentido general, pero se puede personalizar aún más para que sea más útil para una tarea específica.
fracción de éxitos
Es una métrica para evaluar el texto generado de un modelo de AA. La fracción de éxitos es la cantidad de resultados de texto generados "exitosos" dividida por la cantidad total de resultados de texto generados. Por ejemplo, si un modelo de lenguaje grande generó 10 bloques de código, de los cuales cinco fueron exitosos, la fracción de éxitos sería del 50%.
Si bien la fracción de éxitos es útil en general en las estadísticas, en el AA, esta métrica es principalmente útil para medir tareas verificables, como la generación de código o los problemas matemáticos.
G
Gemini
El ecosistema que comprende la IA más avanzada de Google. Los elementos de este ecosistema incluyen lo siguiente:
- Varios modelos de Gemini
- Es la interfaz conversacional interactiva para un modelo de Gemini. Los usuarios escriben instrucciones, y Gemini responde a ellas.
- Varias APIs de Gemini
- Varios productos empresariales basados en modelos de Gemini, por ejemplo, Gemini para Google Cloud.
Modelos de Gemini
Modelos multimodales de última generación basados en Transformer de Google. Los modelos de Gemini están diseñados específicamente para integrarse con agentes.
Los usuarios pueden interactuar con los modelos de Gemini de diversas maneras, como a través de una interfaz de diálogo interactiva y de SDKs.
Gemma
Una familia de modelos abiertos y ligeros creados a partir de la misma investigación y tecnología que se utilizaron para crear los modelos de Gemini. Hay varios modelos de Gemma disponibles, cada uno con diferentes funciones, como visión, código y seguimiento de instrucciones. Consulta Gemma para obtener más información.
IA generativa o IAgenerativa
Abreviatura de IA generativa.
Texto generado
En general, el texto que genera un modelo de AA. Cuando se evalúan modelos de lenguaje grandes, algunas métricas comparan el texto generado con el texto de referencia. Por ejemplo, supongamos que intentas determinar la eficacia con la que un modelo de AA traduce del francés al neerlandés. En este caso, ocurre lo siguiente:
- El texto generado es la traducción al neerlandés que genera el modelo de AA.
- El texto de referencia es la traducción al neerlandés que crea un traductor humano (o un software).
Ten en cuenta que algunas estrategias de evaluación no incluyen texto de referencia.
IA generativa
Es un campo transformador emergente sin una definición formal. Dicho esto, la mayoría de los expertos coinciden en que los modelos de IA generativa pueden crear ("generar") contenido que cumpla con todos los siguientes criterios:
- emergencia compleja,
- coherente
- original
Estos son algunos ejemplos de IA generativa:
- Modelos de lenguaje grandes, que pueden generar texto original sofisticado y responder preguntas
- Modelo de generación de imágenes, que puede producir imágenes únicas.
- Modelos de generación de audio y música, que pueden componer música original o generar voz realista.
- Modelos de generación de videos, que pueden generar videos originales.
Algunas tecnologías anteriores, como las LSTM y las RNN, también pueden generar contenido original y coherente. Algunos expertos consideran que estas tecnologías anteriores son IA generativa, mientras que otros creen que la verdadera IA generativa requiere resultados más complejos de los que pueden producir esas tecnologías anteriores.
Compara esto con el AA predictivo.
respuesta dorada
Una respuesta que se sabe que es buena. Por ejemplo, dada la siguiente instrucción:
2 + 2
Con suerte, la respuesta ideal será la siguiente:
4
H
evaluación humana
Proceso en el que personas juzgan la calidad del resultado de un modelo de AA; por ejemplo, personas bilingües que juzgan la calidad de un modelo de traducción de AA. La evaluación humana es especialmente útil para juzgar modelos que no tienen una respuesta correcta.
Compara esto con la evaluación automática y la evaluación del autorrater.
con interacción humana (HITL)
Es una expresión idiomática definida de forma vaga que podría significar cualquiera de las siguientes opciones:
- Una política de visualización de los resultados de la IA generativa de forma crítica o escéptica.
- Estrategia o sistema para garantizar que las personas ayuden a dar forma, evaluar y perfeccionar el comportamiento de un modelo. Mantener a un humano en el circuito permite que la IA se beneficie tanto de la inteligencia artificial como de la inteligencia humana. Por ejemplo, un sistema en el que una IA genera código que luego revisan los ingenieros de software es un sistema con participación humana.
I
Aprendizaje en contexto
Sinónimo de instrucciones con ejemplos limitados.
Inferencia
En el aprendizaje automático tradicional, el proceso de realizar predicciones aplicando un modelo entrenado a ejemplos sin etiqueta. Consulta Aprendizaje supervisado en el curso Introducción al AA para obtener más información.
En los modelos de lenguaje grandes, la inferencia es el proceso de usar un modelo entrenado para generar una respuesta a una instrucción de entrada.
En estadística, la inferencia tiene un significado algo diferente. Consulta el artículo de Wikipedia sobre inferencia estadística para obtener más detalles.
Ajuste de instrucciones
Es una forma de ajuste que mejora la capacidad de un modelo de IA generativa para seguir instrucciones. El ajuste de instrucciones implica entrenar un modelo con una serie de instrucciones, que suelen abarcar una amplia variedad de tareas. El modelo ajustado con instrucciones resultante tiende a generar respuestas útiles a instrucciones sin ejemplos en una variedad de tareas.
Comparar y contrastar con lo siguiente:
L
latencia
Es el tiempo que tarda un modelo en procesar la entrada y generar una respuesta. Una respuesta de latencia alta tarda más en generarse que una respuesta de latencia baja.
Entre los factores que influyen en la latencia de los modelos de lenguaje grandes, se incluyen los siguientes:
- Longitudes de los [tokens] de entrada y salida
- Complejidad del modelo
- La infraestructura en la que se ejecuta el modelo
La optimización de la latencia es fundamental para crear aplicaciones responsivas y fáciles de usar.
LLM
Abreviatura de modelo de lenguaje grande.
Evaluaciones de LLM (evals)
Es un conjunto de métricas y comparativas para evaluar el rendimiento de los modelos de lenguaje grandes (LLM). A grandes rasgos, las evaluaciones de LLM son las siguientes:
- Ayudar a los investigadores a identificar áreas en las que los LLM necesitan mejorar
- Son útiles para comparar diferentes LLM y determinar cuál es el mejor para una tarea en particular.
- Ayudar a garantizar que los LLMs sean seguros y éticos para su uso
Consulta Modelos de lenguaje extenso (LLM) en el Curso intensivo de aprendizaje automático para obtener más información.
Laura
Abreviatura de Low-Rank Adaptability.
Adaptación de bajo rango (LoRA)
Es una técnica eficiente en cuanto a parámetros para el ajuste que "congela" los pesos entrenados previamente del modelo (de modo que ya no se puedan modificar) y, luego, inserta un pequeño conjunto de pesos entrenables en el modelo. Este conjunto de pesos entrenables (también conocido como "matrices de actualización") es considerablemente más pequeño que el modelo base y, por lo tanto, se entrena mucho más rápido.
LoRA proporciona los siguientes beneficios:
- Mejora la calidad de las predicciones de un modelo para el dominio en el que se aplica el ajuste.
- Se ajusta con mayor rapidez que las técnicas que requieren el ajuste de todos los parámetros de un modelo.
- Reduce el costo de procesamiento de la inferencia, ya que permite la entrega simultánea de varios modelos especializados que comparten el mismo modelo base.
M
traducción automática
Uso de software (por lo general, un modelo de aprendizaje automático) para convertir texto de un idioma humano a otro, por ejemplo, de inglés a japonés.
Precisión media en k (mAP@k)
Es la media estadística de todas las puntuaciones de precisión promedio en k en un conjunto de datos de validación. Un uso de la precisión media promedio en k es evaluar la calidad de las recomendaciones que genera un sistema de recomendación.
Aunque la frase "promedio medio" suena redundante, el nombre de la métrica es apropiado. Después de todo, esta métrica encuentra la media de varios valores de precisión promedio en k.
Mezcla de expertos
Es un esquema para aumentar la eficiencia de la red neuronal usando solo un subconjunto de sus parámetros (conocido como experto) para procesar un token o un ejemplo determinados. Una red de selección dirige cada token o ejemplo de entrada a los expertos adecuados.
Para obtener más detalles, consulta cualquiera de los siguientes documentos:
- Redes neuronales extremadamente grandes: la capa de combinación de expertos con puerta dispersa
- Mixture-of-Experts with Expert Choice Routing
MMIT
Abreviatura de multimodal instruction-tuned.
Cascada de modelos
Es un sistema que elige el modelo ideal para una consulta de inferencia específica.
Imagina un grupo de modelos, desde muy grandes (con muchos parámetros) hasta mucho más pequeños (con muchos menos parámetros). Los modelos muy grandes consumen más recursos de procesamiento en el momento de la inferencia que los modelos más pequeños. Sin embargo, los modelos muy grandes suelen poder inferir solicitudes más complejas que los modelos más pequeños. El encadenamiento de modelos determina la complejidad de la consulta de inferencia y, luego, elige el modelo adecuado para realizar la inferencia. La principal motivación para el encadenamiento de modelos es reducir los costos de inferencia seleccionando, en general, modelos más pequeños y solo seleccionando un modelo más grande para las búsquedas más complejas.
Imagina que un modelo pequeño se ejecuta en un teléfono y una versión más grande de ese modelo se ejecuta en un servidor remoto. La buena cascada de modelos reduce el costo y la latencia, ya que permite que el modelo más pequeño controle las solicitudes simples y solo llame al modelo remoto para controlar las solicitudes complejas.
Consulta también enrutador de modelos.
router de modelo
Es el algoritmo que determina el modelo ideal para la inferencia en la cascada de modelos. Un router de modelos suele ser un modelo de aprendizaje automático que aprende de forma gradual a elegir el mejor modelo para una entrada determinada. Sin embargo, un router de modelos a veces podría ser un algoritmo más simple que no utilice aprendizaje automático.
MOE
Abreviatura de mezcla de expertos.
MT
Abreviatura de traducción automática.
N
Nano
Un modelo de Gemini relativamente pequeño diseñado para el uso en el dispositivo. Consulta Gemini Nano para obtener más detalles.
Sin una respuesta correcta (NORA)
Una instrucción que tiene varias respuestas correctas Por ejemplo, la siguiente instrucción no tiene una respuesta correcta:
Cuéntame un chiste divertido sobre elefantes.
Evaluar las respuestas a las instrucciones que no tienen una respuesta correcta suele ser mucho más subjetivo que evaluar las instrucciones con una respuesta correcta. Por ejemplo, evaluar un chiste sobre elefantes requiere una forma sistemática de determinar qué tan gracioso es.
NORA
Abreviatura de no hay una sola respuesta correcta.
NotebookLM
Es una herramienta basada en Gemini que permite a los usuarios subir documentos y, luego, usar instrucciones para hacer preguntas sobre esos documentos, resumirlos u organizarlos. Por ejemplo, un autor podría subir varios cuentos y pedirle a NotebookLM que encuentre los temas comunes o que identifique cuál sería la mejor película.
O
Una respuesta correcta (ORA)
Una instrucción que tiene una sola respuesta correcta. Por ejemplo, considera la siguiente instrucción:
Verdadero o falso: Saturno es más grande que Marte.
La única respuesta correcta es verdadero.
Contrasta con no hay una respuesta correcta.
Instrucción con un solo ejemplo
Una instrucción que contiene un ejemplo que demuestra cómo debería responder el modelo de lenguaje grande. Por ejemplo, la siguiente instrucción contiene un ejemplo que muestra a un modelo de lenguaje grande cómo debe responder una búsqueda.
Partes de una instrucción | Notas |
---|---|
¿Cuál es la moneda oficial del país especificado? | La pregunta que quieres que responda el LLM. |
Francia: EUR | Veamos un ejemplo. |
India: | Es la búsqueda real. |
Compara y contrasta el one-shot prompting con los siguientes términos:
ORA
Abreviatura de una respuesta correcta.
P
ajuste eficiente de parámetros
Es un conjunto de técnicas para ajustar un modelo de lenguaje entrenado previamente (PLM) grande de manera más eficiente que el ajuste completo. Por lo general, el ajuste eficiente de parámetros ajusta muchos menos parámetros que el ajuste completo, pero, aun así, produce un modelo de lenguaje grande que funciona tan bien (o casi tan bien) como un modelo de lenguaje grande creado a partir del ajuste completo.
Compara y contrasta el ajuste eficiente de parámetros con lo siguiente:
El ajuste eficiente de parámetros también se conoce como ajuste eficiente de parámetros.
Pax
Es un framework de programación diseñado para entrenar modelos de redes neuronales a gran escala, tan grandes que abarcan varias porciones o pods de chips aceleradores de TPU.
Pax se basa en Flax, que se basa en JAX.
PLM
Abreviatura de modelo de lenguaje previamente entrenado.
modelo entrenado posteriormente
Término definido de forma imprecisa que suele hacer referencia a un modelo previamente entrenado que se sometió a algún procesamiento posterior, como uno o más de los siguientes:
modelo previamente entrenado
Si bien este término podría referirse a cualquier modelo o vector de embedding entrenado, ahora suele referirse a un modelo de lenguaje grande entrenado o a otro tipo de modelo de IA generativa entrenado.
Consulta también modelo base y modelo de base.
entrenamiento previo
El entrenamiento inicial de un modelo en un conjunto de datos grande Algunos modelos entrenados previamente son gigantes torpes y, por lo general, se deben refinar con entrenamiento adicional. Por ejemplo, los expertos en AA podrían entrenar previamente un modelo de lenguaje grande con un vasto conjunto de datos de texto, como todas las páginas en inglés de Wikipedia. Después del entrenamiento previo, el modelo resultante se puede refinar aún más con cualquiera de las siguientes técnicas:
Pro
Un modelo de Gemini con menos parámetros que Ultra, pero más que Nano. Consulta Gemini Pro para obtener más detalles.
instrucción
Cualquier texto que se ingresa como entrada en un modelo de lenguaje grande para condicionar el modelo y que se comporte de una manera determinada. Las instrucciones pueden ser tan cortas como una frase o tan largas como se desee (por ejemplo, el texto completo de una novela). Las instrucciones se clasifican en varias categorías, incluidas las que se muestran en la siguiente tabla:
Categoría de instrucción | Ejemplo | Notas |
---|---|---|
Pregunta | ¿Qué tan rápido puede volar una paloma? | |
Instrucción | Escribe un poema divertido sobre el arbitraje. | Es una instrucción que le pide al modelo de lenguaje grande que haga algo. |
Ejemplo | Traduce el código de Markdown a HTML. Por ejemplo:
Markdown: * elemento de lista HTML: <ul> <li>elemento de lista</li> </ul> |
La primera oración de este ejemplo de instrucción es una instrucción. El resto de la instrucción es el ejemplo. |
Rol | Explicar por qué se usa el descenso de gradientes en el entrenamiento del aprendizaje automático a un doctor en Física | La primera parte de la oración es una instrucción; la frase "para obtener un doctorado en Física" es la parte del rol. |
Entrada parcial para que el modelo la complete | El primer ministro del Reino Unido vive en | Una instrucción de entrada parcial puede terminar de forma abrupta (como en este ejemplo) o con un guion bajo. |
Un modelo de IA generativa puede responder a una instrucción con texto, código, imágenes, incorporaciones, videos… casi cualquier cosa.
aprendizaje basado en instrucciones
Es una capacidad de ciertos modelos que les permite adaptar su comportamiento en respuesta a entradas de texto arbitrarias (instrucciones). En un paradigma de aprendizaje típico basado en instrucciones, un modelo de lenguaje grande responde a una instrucción generando texto. Por ejemplo, supongamos que un usuario ingresa la siguiente instrucción:
Resume la tercera ley del movimiento de Newton.
Un modelo capaz de aprender a partir de instrucciones no se entrena específicamente para responder la instrucción anterior. En cambio, el modelo "conoce" muchos datos sobre física, muchas reglas generales del lenguaje y mucha información sobre lo que constituye respuestas generalmente útiles. Ese conocimiento es suficiente para proporcionar una respuesta (con suerte) útil. La retroalimentación humana adicional ("Esa respuesta fue demasiado complicada" o "¿Qué es una reacción?") permite que algunos sistemas de aprendizaje basados en instrucciones mejoren gradualmente la utilidad de sus respuestas.
Diseño de instrucciones
Sinónimo de ingeniería de instrucciones.
ingeniería de instrucciones
El arte de crear instrucciones que produzcan las respuestas deseadas de un modelo de lenguaje grande Los humanos realizan la ingeniería de instrucciones. Escribir instrucciones bien estructuradas es una parte esencial para garantizar respuestas útiles de un modelo de lenguaje grande. La ingeniería de instrucciones depende de muchos factores, incluidos los siguientes:
- Es el conjunto de datos que se usa para el entrenamiento previo y, posiblemente, el ajuste del modelo de lenguaje grande.
- Son los parámetros de decodificación y temperatura que el modelo usa para generar respuestas.
Diseño de instrucciones es sinónimo de ingeniería de instrucciones.
Consulta Introducción al diseño de instrucciones para obtener más detalles sobre cómo escribir instrucciones útiles.
conjunto de instrucciones
Es un grupo de instrucciones para evaluar un modelo de lenguaje grande. Por ejemplo, la siguiente ilustración muestra un conjunto de instrucciones que consta de tres instrucciones:
Los buenos conjuntos de instrucciones constan de una colección de instrucciones lo suficientemente "amplia" como para evaluar a fondo la seguridad y la utilidad de un modelo de lenguaje grande.
Consulta también conjunto de respuestas.
Ajuste de instrucciones
Un mecanismo de ajuste eficiente de parámetros que aprende un "prefijo" que el sistema antepone a la instrucción real.
Una variación del ajuste de instrucciones, a veces denominado ajuste de prefijo, consiste en anteponer el prefijo en cada capa. En cambio, la mayoría de los ajustes de instrucciones solo agregan un prefijo a la capa de entrada.
R
texto de referencia
Respuesta de un experto a una instrucción. Por ejemplo, dada la siguiente instrucción:
Traduce la pregunta "¿Cómo te llamas?" del inglés al francés.
La respuesta de un experto podría ser la siguiente:
Comment vous appelez-vous?
Varias métricas (como ROUGE) miden el grado en que el texto de referencia coincide con el texto generado de un modelo de AA.
Aprendizaje por refuerzo con retroalimentación humana (RLHF)
Usamos los comentarios de evaluadores humanos para mejorar la calidad de las respuestas de un modelo. Por ejemplo, un mecanismo de RLHF puede pedirles a los usuarios que califiquen la calidad de la respuesta de un modelo con un emoji 👍 o 👎. Luego, el sistema puede ajustar sus respuestas futuras en función de esos comentarios.
respuesta
El texto, las imágenes, el audio o el video que infiere un modelo de IA generativa. En otras palabras, una instrucción es la entrada para un modelo de IA generativa, y la respuesta es la salida.
conjunto de respuestas
Es la colección de respuestas que un modelo de lenguaje grande devuelve a un conjunto de instrucciones de entrada.
Instrucciones con roles
Una instrucción, que suele comenzar con el pronombre tú, que le indica a un modelo de IA generativa que finja ser una persona o un rol determinado cuando genere la respuesta. Las instrucciones de rol pueden ayudar a un modelo de IA generativa a adoptar la "mentalidad" adecuada para generar una respuesta más útil. Por ejemplo, cualquiera de las siguientes instrucciones de rol podría ser adecuada según el tipo de respuesta que busques:
Tienes un doctorado en informática.
Eres un ingeniero de software que disfruta de dar explicaciones pacientes sobre Python a estudiantes de programación nuevos.
Eres un héroe de acción con un conjunto muy particular de habilidades de programación. Asegúrame que encontrarás un elemento específico en una lista de Python.
S
Ajuste de indicaciones secundarias
Técnica para ajustar un modelo de lenguaje grande para una tarea en particular, sin necesidad de un ajuste que requiera muchos recursos. En lugar de volver a entrenar todos los pesos del modelo, el ajuste de instrucciones flexible ajusta automáticamente una instrucción para lograr el mismo objetivo.
Dado un mensaje textual, el ajuste de instrucciones con instrucciones suaves suele agregar incorporaciones de tokens adicionales a la instrucción y usa la retropropagación para optimizar la entrada.
Una instrucción "fuerte" contiene tokens reales en lugar de incorporaciones de tokens.
T
temperatura
Es un hiperparámetro que controla el grado de aleatoriedad del resultado de un modelo. Las temperaturas más altas generan resultados más aleatorios, mientras que las temperaturas más bajas generan resultados menos aleatorios.
Elegir la mejor temperatura depende de la aplicación específica o de los valores de cadena.
U
Ultra
El modelo de Gemini con la mayor cantidad de parámetros. Consulta Gemini Ultra para obtener más detalles.
V
Vertex
Es la plataforma de Google Cloud para la IA y el aprendizaje automático. Vertex proporciona herramientas e infraestructura para compilar, implementar y administrar aplicaciones de IA, incluido el acceso a los modelos de Gemini.Z
Instrucción sin ejemplos
Una instrucción que no proporciona un ejemplo de cómo quieres que responda el modelo de lenguaje grande Por ejemplo:
Partes de una instrucción | Notas |
---|---|
¿Cuál es la moneda oficial del país especificado? | La pregunta que quieres que responda el LLM. |
India: | Es la búsqueda real. |
El modelo de lenguaje grande podría responder con cualquiera de las siguientes opciones:
- Rupia
- INR
- ₹
- Rupia hindú
- La rupia
- La rupia india
Todas las respuestas son correctas, aunque es posible que prefieras un formato en particular.
Compara y contrasta el zero-shot prompting con los siguientes términos: