Глоссарий машинного обучения: генеративный ИИ

На этой странице содержится глоссарий терминов генеративного искусственного интеллекта. Чтобы просмотреть все термины глоссария, нажмите здесь .

А

автоматическая оценка

#язык
#генеративныйИИ

Использование программного обеспечения для оценки качества вывода модели.

Если выходные данные модели относительно просты, сценарий или программа могут сравнить выходные данные модели с золотым ответом . Этот тип автоматической оценки иногда называют программной оценкой . Такие показатели, как ROUGE или BLEU , часто полезны для программной оценки.

Если выходные данные модели сложны или не имеют единственного правильного ответа , отдельная программа машинного обучения, называемая авторейтером, иногда выполняет автоматическую оценку.

Сравните с человеческой оценкой .

авторейтерская оценка

#язык
#генеративныйИИ
Гибридный механизм оценки качества результатов генеративной модели ИИ , сочетающий человеческую оценку с автоматической оценкой . Авторрейтер — это модель машинного обучения, обученная на данных, полученных в результате оценки человеком . В идеале авторрейтер учится подражать оценщику-человеку.

Доступны готовые авторейтинги, но лучшие авторейтинги точно настроены специально для задачи, которую вы оцениваете.

авторегрессионная модель

#язык
#изображение
#генеративныйИИ

Модель , которая делает прогноз на основе собственных предыдущих прогнозов. Например, авторегрессионные языковые модели прогнозируют следующий токен на основе ранее предсказанных токенов. Все модели большого языка на основе Transformer являются авторегрессионными.

Напротив, модели изображений на основе GAN обычно не являются авторегрессионными, поскольку они генерируют изображение за один проход вперед, а не поэтапно итеративно. Однако некоторые модели генерации изображений являются авторегрессионными, поскольку они генерируют изображение поэтапно.

С

подсказка по цепочке мыслей

#язык
#генеративныйИИ

Метод быстрого проектирования , который побуждает большую языковую модель (LLM) шаг за шагом объяснять свои рассуждения. Например, рассмотрите следующую подсказку, уделив особое внимание второму предложению:

Какую силу перегрузки испытает водитель автомобиля, разгоняющегося от 0 до 60 миль в час за 7 секунд? В ответе покажите все соответствующие расчеты.

Ответ LLM, скорее всего, будет следующим:

  • Покажите последовательность физических формул, вставляя значения 0, 60 и 7 в соответствующие места.
  • Объясните, почему он выбрал именно эти формулы и что означают различные переменные.

Подсказки по цепочке мыслей заставляют LLM выполнять все вычисления, которые могут привести к более правильному ответу. Кроме того, подсказки по цепочке мыслей позволяют пользователю изучить шаги LLM, чтобы определить, имеет ли ответ смысл.

чат

#язык
#генеративныйИИ

Содержимое двустороннего диалога с системой машинного обучения, обычно это большая языковая модель . Предыдущее взаимодействие в чате (то, что вы набрали и как отреагировала большая языковая модель) становится контекстом для последующих частей чата.

Чат-бот — это приложение большой языковой модели.

контекстуализированное языковое встраивание

#язык
#генеративныйИИ

Встраивание , близкое к «пониманию» слов и фраз так, как это могут делать бегло говорящие люди. Контекстуализированные языковые внедрения могут понимать сложный синтаксис, семантику и контекст.

Например, рассмотрим встраивание английского слова «cow» . Старые вложения, такие как word2vec, могут представлять английские слова таким образом, что расстояние в пространстве встраивания от коровы до быка аналогично расстоянию от овцы (овцы-самки) до барана (овцы-самцы) или от самки до самца . Контекстуализированные языковые встраивания могут пойти еще дальше, признав, что носители английского языка иногда случайно используют слово «корова» для обозначения либо коровы, либо быка.

контекстное окно

#язык
#генеративныйИИ

Количество токенов , которые модель может обработать в заданном приглашении . Чем больше контекстное окно, тем больше информации модель может использовать для предоставления последовательных и последовательных ответов на запрос.

Д

прямое побуждение

#язык
#генеративныйИИ

Синоним подсказки с нулевым выстрелом .

дистилляция

#генеративныйИИ

Процесс уменьшения размера одной модели (известной как учитель ) до модели меньшего размера (известной как ученик ), которая максимально точно имитирует предсказания исходной модели. Дистилляция полезна, потому что меньшая модель имеет два ключевых преимущества перед более крупной моделью (учителем):

  • Более быстрое время вывода
  • Уменьшение потребления памяти и энергии.

Однако прогнозы ученика обычно не так хороши, как прогнозы учителя.

Дистилляция обучает модель ученика минимизировать функцию потерь на основе разницы между результатами прогнозов моделей ученика и учителя.

Сравните и сопоставьте дистилляцию со следующими терминами:

Дополнительную информацию см. в разделе «LLM: точная настройка, дистилляция и быстрое проектирование» в ускоренном курсе машинного обучения.

Э

оценивает

#язык
#генеративныйИИ
#Метрика

В основном используется как аббревиатура для оценок LLM . В более широком смысле, evals — это аббревиатура, обозначающая любую форму оценки .

оценка

#язык
#генеративныйИИ
#Метрика

Процесс измерения качества модели или сравнения различных моделей друг с другом.

Чтобы оценить модель контролируемого машинного обучения , вы обычно сравниваете ее с набором проверки и набором тестов . Оценка LLM обычно включает в себя более широкую оценку качества и безопасности.

Ф

фактичность

#генеративныйИИ

В мире МО — свойство, описывающее модель, выходные данные которой основаны на реальности. Фактичность — это скорее концепция, чем показатель. Например, предположим, что вы отправляете следующую подсказку в большую языковую модель :

Какова химическая формула поваренной соли?

Модель, оптимизирующая фактологию, ответила бы:

NaCl

Заманчиво предположить, что все модели должны основываться на фактах. Однако некоторые подсказки, такие как следующие, должны привести к тому, что генеративная модель ИИ оптимизирует творческий подход , а не фактологию .

Расскажи мне лимерик про космонавта и гусеницу.

Вряд ли получившийся лимерик будет основан на реальности.

Сравните с заземленностью .

подсказка из нескольких кадров

#язык
#генеративныйИИ

Приглашение , содержащее более одного («несколько») примеров, демонстрирующих, как должна реагировать большая языковая модель . Например, следующая длинная подсказка содержит два примера, показывающие большую языковую модель, как отвечать на запрос.

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Франция: евро Один пример.
Великобритания: фунт стерлингов. Другой пример.
Индия: Фактический запрос.

Подсказки с небольшим количеством шагов обычно дают более желательные результаты, чем подсказки с нулевым шагом и одноразовые подсказки . Однако подсказка с несколькими выстрелами требует более длинной подсказки.

Подсказки в несколько этапов — это форма обучения в несколько этапов, применяемая к обучению на основе подсказок .

Дополнительную информацию см. в разделе «Быстрое проектирование» в ускоренном курсе машинного обучения.

тонкая настройка

#язык
#изображение
#генеративныйИИ

Второй проход обучения для конкретной задачи, выполняемый на предварительно обученной модели для уточнения ее параметров для конкретного варианта использования. Например, полная последовательность обучения для некоторых больших языковых моделей выглядит следующим образом:

  1. Предварительное обучение: обучите большую языковую модель на обширном общем наборе данных, например на всех англоязычных страницах Википедии.
  2. Точная настройка: обучение предварительно обученной модели выполнению конкретной задачи, например ответа на медицинские запросы. Точная настройка обычно включает сотни или тысячи примеров, ориентированных на конкретную задачу.

В качестве другого примера полная последовательность обучения для модели большого изображения выглядит следующим образом:

  1. Предварительное обучение: обучите большую модель изображения на обширном общем наборе данных изображений, например на всех изображениях в Wikimedia Commons.
  2. Точная настройка: обучение предварительно обученной модели выполнению конкретной задачи, например генерации изображений косаток.

Точная настройка может включать любую комбинацию следующих стратегий:

  • Изменение всех существующих параметров предварительно обученной модели. Иногда это называют полной тонкой настройкой .
  • Изменение только некоторых существующих параметров предварительно обученной модели (обычно слоев, ближайших к выходному слою ), сохраняя при этом другие существующие параметры неизменными (обычно слои, ближайшие к входному слою ). См. настройку с эффективным использованием параметров .
  • Добавление дополнительных слоев, обычно поверх существующих слоев, ближайших к выходному слою.

Точная настройка — это форма трансферного обучения . Таким образом, при точной настройке может использоваться другая функция потерь или другой тип модели, чем те, которые используются для обучения предварительно обученной модели. Например, вы можете точно настроить предварительно обученную модель большого изображения для создания регрессионной модели, которая возвращает количество птиц во входном изображении.

Сравните и сопоставьте тонкую настройку со следующими терминами:

Дополнительные сведения см. в разделе «Точная настройка ускоренного курса машинного обучения».

доля успехов

#генеративныйИИ
#Метрика

Метрика для оценки текста, сгенерированного моделью машинного обучения. Доля успехов — это количество «успешных» сгенерированных текстовых выходных данных, деленное на общее количество сгенерированных текстовых выходных данных. Например, если большая языковая модель сгенерировала 10 блоков кода, пять из которых оказались успешными, то доля успешных результатов составит 50%.

Хотя доля успехов широко полезна в статистике, в рамках машинного обучения этот показатель в первую очередь полезен для измерения проверяемых задач, таких как генерация кода или математические задачи.

Г

Близнецы

#язык
#изображение
#генеративныйИИ

Экосистема, включающая самый передовой искусственный интеллект Google. К элементам этой экосистемы относятся:

  • Различные модели Gemini .
  • Интерактивный диалоговый интерфейс модели Gemini . Пользователи вводят запросы, и Gemini отвечает на эти запросы.
  • Различные API Gemini.
  • Различные бизнес-продукты на основе моделей Gemini; например, Gemini для Google Cloud .

Модели Близнецов

#язык
#изображение
#генеративныйИИ

Новейшие мультимодальные модели Google на основе Transformer . Модели Gemini специально разработаны для интеграции с агентами .

Пользователи могут взаимодействовать с моделями Gemini различными способами, в том числе через интерактивный диалоговый интерфейс и через SDK.

сгенерированный текст

#язык
#генеративныйИИ

В общем, текст, который выводит модель машинного обучения. При оценке больших языковых моделей некоторые метрики сравнивают сгенерированный текст с ссылочным текстом . Например, предположим, что вы пытаетесь определить, насколько эффективно модель машинного обучения переводится с французского на голландский. В этом случае:

  • Сгенерированный текст представляет собой голландский перевод, который выводит модель машинного обучения.
  • Справочный текст — это голландский перевод, созданный переводчиком-человеком (или программным обеспечением).

Обратите внимание, что некоторые стратегии оценки не включают справочный текст.

генеративный ИИ

#язык
#изображение
#генеративныйИИ

Возникающее преобразующее поле без формального определения. Тем не менее, большинство экспертов сходятся во мнении, что генеративные модели ИИ могут создавать («генерировать») контент, который имеет все следующие характеристики:

  • сложный
  • последовательный
  • оригинальный

Например, генеративная модель ИИ может создавать сложные эссе или изображения.

Некоторые более ранние технологии, включая LSTM и RNN , также могут генерировать оригинальный и связный контент. Некоторые эксперты рассматривают эти более ранние технологии как генеративный ИИ, в то время как другие считают, что настоящий генеративный ИИ требует более сложных результатов, чем те, которые могут произвести более ранние технологии.

Сравните с прогнозным ML .

золотой ответ

#язык
#генеративныйИИ

Заведомо хороший ответ. Например, учитывая следующую подсказку :

2 + 2

Надеемся, что золотой ответ будет следующим:

4

ЧАС

человеческая оценка

#язык
#генеративныйИИ

Процесс, в котором люди оценивают качество результатов модели ML; например, двуязычные люди оценивают качество модели перевода ML. Человеческая оценка особенно полезна для оценки моделей, которые не имеют единственного правильного ответа .

Сравните с автоматической оценкой и оценкой авторами .

человек в курсе (HITL)

#генеративныйИИ

Идиома с неопределенным определением, которая может означать одно из следующих значений:

  • Политика критического или скептического рассмотрения результатов генеративного ИИ. Например, люди, написавшие этот глоссарий машинного обучения, поражены тем, на что способны большие языковые модели, но помнят об ошибках, которые допускают большие языковые модели.
  • Стратегия или система, гарантирующая, что люди помогают формировать, оценивать и совершенствовать поведение модели. Если держать человека в курсе событий, ИИ может извлечь выгоду как из машинного, так и из человеческого интеллекта. Например, система, в которой ИИ генерирует код, который затем проверяют инженеры-программисты, представляет собой систему с участием человека.

я

обучение в контексте

#язык
#генеративныйИИ

Синоним «подсказки с несколькими выстрелами» .

инструкция по настройке

#генеративныйИИ

Форма тонкой настройки , которая улучшает способность генеративной модели ИИ следовать инструкциям. Настройка инструкций включает в себя обучение модели с помощью серии инструкций, обычно охватывающих широкий спектр задач. Полученная в результате модель, настроенная на инструкции, затем имеет тенденцию генерировать полезные ответы на подсказки с нулевым результатом для различных задач.

Сравните и противопоставьте:

л

Магистр права

#язык
#генеративныйИИ

Аббревиатура для большой языковой модели .

LLM оценки (оценки)

#язык
#генеративныйИИ
#Метрика

Набор метрик и тестов для оценки производительности больших языковых моделей (LLM). На высоком уровне оценки LLM:

  • Помогите исследователям определить области, где LLM нуждается в улучшении.
  • Полезны для сравнения различных LLM и определения лучшего LLM для конкретной задачи.
  • Помогите гарантировать, что использование LLM безопасно и этически.

Дополнительные сведения см. в разделе «Большие языковые модели (LLM)» в ускоренном курсе машинного обучения.

ЛоРА

#язык
#генеративныйИИ

Аббревиатура для адаптивности низкого ранга .

Адаптивность низкого ранга (LoRA)

#язык
#генеративныйИИ

Эффективный по параметрам метод точной настройки , который «замораживает» предварительно обученные веса модели (таким образом, что их больше нельзя изменить), а затем вставляет в модель небольшой набор обучаемых весов. Этот набор обучаемых весов (также известный как «матрицы обновления») значительно меньше базовой модели и поэтому обучается гораздо быстрее.

LoRA предоставляет следующие преимущества:

  • Улучшает качество прогнозов модели для области, к которой применяется точная настройка.
  • Точная настройка выполняется быстрее, чем методы, требующие точной настройки всех параметров модели.
  • Снижает вычислительные затраты на вывод , позволяя одновременно обслуживать несколько специализированных моделей, использующих одну и ту же базовую модель.

М

машинный перевод

#генеративныйИИ

Использование программного обеспечения (обычно модели машинного обучения) для преобразования текста с одного человеческого языка на другой человеческий язык, например, с английского на японский.

средняя средняя точность при k (mAP@k)

#язык
#генеративныйИИ
#Метрика

Статистическое среднее всей средней точности при k баллах в наборе проверочных данных. Одним из вариантов использования средней точности при k является оценка качества рекомендаций, генерируемых системой рекомендаций .

Хотя фраза «среднее среднее» звучит избыточно, название показателя вполне подходящее. В конце концов, эта метрика находит среднее значение множественной средней точности при значениях k .

смесь экспертов

#язык
#генеративныйИИ

Схема повышения эффективности нейронной сети за счет использования только подмножества ее параметров (известного как эксперт ) для обработки данного входного токена или примера . Сеть шлюзов направляет каждый входной токен или пример соответствующему эксперту(ам).

Подробную информацию см. в одном из следующих документов:

ММИТ

#язык
#изображение
#генеративныйИИ

Аббревиатура для мультимодальных инструкций, настроенных .

каскадирование модели

#генеративныйИИ

Система, которая выбирает идеальную модель для конкретного запроса вывода.

Представьте себе группу моделей, от очень больших (много параметров ) до гораздо меньших (гораздо меньше параметров). Очень большие модели потребляют больше вычислительных ресурсов во время вывода , чем модели меньшего размера. Однако очень большие модели обычно могут выводить более сложные запросы, чем модели меньшего размера. Каскадирование моделей определяет сложность запроса на вывод, а затем выбирает подходящую модель для выполнения вывода. Основной мотивацией каскадирования моделей является снижение затрат на логические выводы за счет выбора моделей меньшего размера и выбора более крупной модели только для более сложных запросов.

Представьте, что небольшая модель работает на телефоне, а более крупная версия этой модели работает на удаленном сервере. Хорошее каскадирование моделей снижает затраты и задержки, позволяя меньшей модели обрабатывать простые запросы и вызывая удаленную модель только для обработки сложных запросов.

См. также модель маршрутизатора .

модель маршрутизатора

#генеративныйИИ

Алгоритм, определяющий идеальную модель для вывода при каскадировании моделей . Модель маршрутизатора сама по себе обычно представляет собой модель машинного обучения, которая постепенно учится выбирать лучшую модель для данного входного сигнала. Однако модель маршрутизатора иногда может представлять собой более простой алгоритм, не требующий машинного обучения.

МЧС

#язык
#изображение
#генеративныйИИ

Сокращение от смеси экспертов .

МТ

#генеративныйИИ

Аббревиатура машинного перевода .

Н

нет ни одного правильного ответа (НОРА)

#язык
#генеративныйИИ

Подсказка с несколькими подходящими ответами. Например, следующая подсказка не имеет единственного правильного ответа:

Расскажи мне анекдот про слонов.

Оценка подсказок, на которые нет ни одного правильного ответа, может оказаться сложной задачей.

НОРА

#язык
#генеративныйИИ

Аббревиатура, обозначающая «нет единственного правильного ответа ».

О

одноразовая подсказка

#язык
#генеративныйИИ

Приглашение , содержащее один пример, демонстрирующий, как должна реагировать большая языковая модель . Например, следующая подсказка содержит один пример, показывающий, как большая языковая модель должна отвечать на запрос.

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Франция: евро Один пример.
Индия: Фактический запрос.

Сравните и сопоставьте одноразовые подсказки со следующими терминами:

П

настройка с эффективным использованием параметров

#язык
#генеративныйИИ

Набор методов для более эффективной тонкой настройки большой предварительно обученной языковой модели (PLM), чем полная точная настройка . При настройке с эффективным использованием параметров обычно выполняется гораздо меньше параметров , чем при полной точной настройке, но, как правило, создается большая языковая модель , которая работает так же хорошо (или почти так же хорошо), как и большая языковая модель, построенная на основе полной тонкой настройки.

Сравните и сопоставьте эффективную настройку параметров с:

Настройка с эффективным использованием параметров также известна как точная настройка с эффективным использованием параметров .

ПЛМ

#язык
#генеративныйИИ

Аббревиатура предварительно обученной языковой модели .

постобученная модель

#язык
#изображение
#генеративныйИИ

Свободно определенный термин, который обычно относится к предварительно обученной модели , прошедшей некоторую постобработку, например одно или несколько из следующих действий:

предварительно обученная модель

#язык
#изображение
#генеративныйИИ

Обычно это уже обученная модель. Этот термин также может означать ранее обученный вектор внедрения .

Термин «предварительно обученная языковая модель» обычно относится к уже обученной большой языковой модели .

предварительная подготовка

#язык
#изображение
#генеративныйИИ

Начальное обучение модели на большом наборе данных. Некоторые предварительно обученные модели являются неуклюжими гигантами и обычно требуют доработки посредством дополнительного обучения. Например, эксперты по машинному обучению могут предварительно обучить большую языковую модель на обширном наборе текстовых данных, например на всех английских страницах в Википедии. После предварительного обучения полученная модель может быть дополнительно уточнена с помощью любого из следующих методов:

быстрый

#язык
#генеративныйИИ

Любой текст, вводимый в качестве входных данных в большую языковую модель , чтобы заставить модель вести себя определенным образом. Подсказки могут быть короткими, как фраза, или произвольной длины (например, весь текст романа). Подсказки делятся на несколько категорий, включая те, которые показаны в следующей таблице:

Категория подсказки Пример Примечания
Вопрос Как быстро может летать голубь?
Инструкция Напишите забавное стихотворение об арбитраже. Подсказка, которая просит большую языковую модель что-то сделать .
Пример Переведите код Markdown в HTML. Например:
Уценка: * элемент списка
HTML: <ul> <li>элемент списка</li> </ul>
Первое предложение в этом примере приглашения представляет собой инструкцию. Оставшаяся часть приглашения является примером.
Роль Объясните, почему градиентный спуск используется при обучении машинному обучению для доктора философии по физике. Первая часть предложения представляет собой инструкцию; фраза «до степени доктора физики» является ролевой частью.
Частичный ввод для завершения модели Премьер-министр Соединенного Королевства живет в Подсказка частичного ввода может либо внезапно закончиться (как в этом примере), либо закончиться подчеркиванием.

Генеративная модель ИИ может отвечать на запрос текстом, кодом, изображениями, встраиваниями , видео… почти чем угодно.

быстрое обучение

#язык
#генеративныйИИ

Способность определенных моделей , позволяющая им адаптировать свое поведение в ответ на произвольный ввод текста ( подсказки ). В типичной парадигме обучения на основе подсказок большая языковая модель реагирует на подсказку, генерируя текст. Например, предположим, что пользователь вводит следующую подсказку:

Кратко изложите третий закон движения Ньютона.

Модель, способная к обучению на основе подсказок, специально не обучена отвечать на предыдущую подсказку. Скорее, модель «знает» множество фактов о физике, много об общих правилах языка и многое о том, что представляет собой вообще полезные ответы. Этих знаний достаточно, чтобы дать (надеюсь) полезный ответ. Дополнительная обратная связь от человека («Этот ответ был слишком сложным» или «Какая реакция?») позволяет некоторым системам обучения на основе подсказок постепенно повышать полезность своих ответов.

быстрый дизайн

#язык
#генеративныйИИ

Синоним оперативного проектирования .

оперативное проектирование

#язык
#генеративныйИИ

Искусство создания подсказок , вызывающих желаемые ответы из большой языковой модели . Люди выполняют быстрые инженерные работы. Написание хорошо структурированных подсказок является важной частью обеспечения полезных ответов от большой языковой модели. Оперативное проектирование зависит от многих факторов, в том числе:

Оперативное проектирование – это синоним оперативного проектирования.

Дополнительные сведения о написании полезных подсказок см. в разделе «Введение в дизайн подсказок» .

оперативная настройка

#язык
#генеративныйИИ

Эффективный механизм настройки параметров , который запоминает «префикс», который система добавляет к фактическому приглашению .

Один из вариантов быстрой настройки, иногда называемый настройкой префикса , заключается в добавлении префикса на каждом уровне . Напротив, в большинстве случаев быстрая настройка добавляет только префикс к входному слою .

Р

справочный текст

#язык
#генеративныйИИ

Ответ эксперта на подсказку . Например, учитывая следующую подсказку:

Перевести вопрос «Как тебя зовут?» с английского на французский.

Ответ эксперта может быть таким:

Комментарий vous appelez-vous?

Различные метрики (например, ROUGE ) измеряют степень соответствия справочного текста тексту, сгенерированному моделью ML.

Обучение с подкреплением на основе обратной связи с человеком (RLHF)

#генеративныйИИ
#рл

Использование отзывов оценщиков для улучшения качества ответов модели. Например, механизм RLHF может попросить пользователей оценить качество ответа модели с помощью смайликов 👍 или 👎. Затем система может скорректировать свои будущие ответы на основе этой обратной связи.

подсказка роли

#язык
#генеративныйИИ

Необязательная часть запроса , определяющая целевую аудиторию для ответа генеративной модели ИИ . Без ролевой подсказки большая языковая модель дает ответ, который может оказаться полезным, а может и не оказаться полезным для человека, задающего вопросы. Благодаря подсказке о роли большая языковая модель может ответить более подходящим и более полезным для конкретной целевой аудитории способом. Например, часть подсказки о роли в следующих подсказках выделена жирным шрифтом:

  • Кратко изложите этот документ для кандидата экономических наук .
  • Опишите, как приливы действуют на десятилетнего ребенка .
  • Объясните финансовый кризис 2008 года. Разговаривайте так, как если бы вы разговаривали с маленьким ребенком или золотистым ретривером.

С

мягкая быстрая настройка

#язык
#генеративныйИИ

Техника настройки большой языковой модели для конкретной задачи без ресурсоемкой тонкой настройки . Вместо повторного обучения всех весов в модели мягкая настройка подсказки автоматически корректирует подсказку для достижения той же цели.

Учитывая текстовое приглашение, программная настройка приглашения обычно добавляет к приглашению дополнительные вставки токенов и использует обратное распространение ошибки для оптимизации ввода.

«Жесткое» приглашение содержит фактические токены вместо встраивания токенов.

Т

температура

#язык
#изображение
#генеративныйИИ

Гиперпараметр , который контролирует степень случайности выходных данных модели. Более высокие температуры приводят к более случайному выходному сигналу, тогда как более низкие температуры приводят к менее случайному выходному сигналу.

Выбор оптимальной температуры зависит от конкретного применения и предпочтительных свойств выходной модели. Например, вы, вероятно, повысите температуру при создании приложения, генерирующего творческий результат. И наоборот, вы, вероятно, понизите температуру при построении модели, которая классифицирует изображения или текст, чтобы повысить точность и согласованность модели.

Температура часто используется с softmax .

З

подсказка с нулевым выстрелом

#язык
#генеративныйИИ

Приглашение , не содержащее примера того, как должна реагировать большая языковая модель . Например:

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Индия: Фактический запрос.

Модель большого языка может ответить любым из следующих действий:

  • Рупия
  • индийская рупия
  • Индийская рупия
  • рупия
  • Индийская рупия

Все ответы верны, хотя вы можете предпочесть определенный формат.

Сравните и сопоставьте подсказки «нулевого выстрела» со следующими терминами:

,

На этой странице содержится глоссарий терминов генеративного искусственного интеллекта. Чтобы просмотреть все термины глоссария, нажмите здесь .

А

автоматическая оценка

#язык
#генеративныйИИ

Использование программного обеспечения для оценки качества вывода модели.

Если выходные данные модели относительно просты, сценарий или программа могут сравнить выходные данные модели с золотым ответом . Этот тип автоматической оценки иногда называют программной оценкой . Такие показатели, как ROUGE или BLEU , часто полезны для программной оценки.

Если выходные данные модели сложны или не имеют единственного правильного ответа , отдельная программа машинного обучения, называемая авторейтером, иногда выполняет автоматическую оценку.

Сравните с человеческой оценкой .

авторейтерская оценка

#язык
#генеративныйИИ
Гибридный механизм оценки качества результатов генеративной модели ИИ , сочетающий человеческую оценку с автоматической оценкой . Авторрейтер — это модель машинного обучения, обученная на данных, полученных в результате оценки человеком . В идеале авторрейтер учится подражать оценщику-человеку.

Доступны готовые авторейтинги, но лучшие авторейтинги точно настроены специально для задачи, которую вы оцениваете.

авторегрессионная модель

#язык
#изображение
#генеративныйИИ

Модель , которая делает прогноз на основе собственных предыдущих прогнозов. Например, авторегрессионные языковые модели прогнозируют следующий токен на основе ранее предсказанных токенов. Все модели большого языка на основе Transformer являются авторегрессионными.

Напротив, модели изображений на основе GAN обычно не являются авторегрессионными, поскольку они генерируют изображение за один проход вперед, а не поэтапно итеративно. Однако некоторые модели генерации изображений являются авторегрессионными, поскольку они генерируют изображение поэтапно.

С

подсказка по цепочке мыслей

#язык
#генеративныйИИ

Метод быстрого проектирования , который побуждает большую языковую модель (LLM) шаг за шагом объяснять свои рассуждения. Например, рассмотрите следующую подсказку, уделив особое внимание второму предложению:

Сколько сил G будет испытывать водитель в автомобиле, который пройдет от 0 до 60 миль в час за 7 секунд? В ответе показать все соответствующие расчеты.

Ответ LLM, вероятно, будет:

  • Покажите последовательность формул физики, подключив значения 0, 60 и 7 в соответствующих местах.
  • Объясните, почему он выбрал эти формулы и что означают различные переменные.

Цепочка мыслей заставляет LLM выполнять все расчеты, что может привести к более правильному ответу. Кроме того, подсказка для цепочки мыслей позволяет пользователю изучить шаги LLM, чтобы определить, имеет ли ответ смысл.

чат

#язык
#generativeai

Содержимое диалога на спине и въезда с системой ML, как правило, большой языковой модели . Предыдущее взаимодействие в чате (то, что вы напечатали, и как реагировала большая языковая модель) становится контекстом для последующих частей чата.

Чатбот - это приложение большой языковой модели.

контекстуализированное встраивание языка

#язык
#generativeai

Внедрение , которое приближается к «пониманию» слов и фраз таким образом, что могут свободно владеть носителями человека. Контекстуализированные языковые встраивания могут понимать сложный синтаксис, семантику и контекст.

Например, рассмотрим встроения английской слова коровь . Старые встраивания, такие как Word2VEC, могут представлять английские слова, так что расстояние в пространстве встраивания от коровы до быка аналогично расстоянию от овцы (самки овец) до барана (мужской овцы) или от женского до мужчин . Контекстуализированные языковые встраивания могут пойти еще дальше, признав, что носители английского языка иногда случайно используют слово корову для обозначения коровьей или быка.

контекстное окно

#язык
#generativeai

Количество токенов , которые модель может обрабатывать в данной подсказке . Чем больше окно контекста, тем больше информации модель может использовать для предоставления последовательных и последовательных ответов на подсказку.

Д

прямое подсказка

#язык
#generativeai

Синоним подсказки с нулевым выстрелом .

дистилляция

#generativeai

Процесс уменьшения размера одной модели (известной как учитель ) в меньшую модель (известную как ученик ), которая эмулирует прогнозы оригинальной модели максимально верно. Дистилляция полезна, потому что меньшая модель имеет два ключевых преимущества по сравнению с более крупной моделью (учитель):

  • Более быстрое время вывода
  • Униженное использование памяти и энергии

Тем не менее, прогнозы ученика, как правило, не так хороши, как прогнозы учителя.

Дистилляция обучает модель студента, чтобы минимизировать функцию потерь на основе разницы между результатами прогнозов моделей ученика и учителя.

Сравните и сопоставьте дистилляцию со следующими терминами:

См. LLMS: тонкая настройка, дистилляция и быстрое инженерное управление в сбои машинного обучения для получения дополнительной информации.

Э

оценивает

#язык
#generativeai
#Metric

В основном используется в качестве аббревиатуры для оценки LLM . В более широком смысле, Evals является аббревиатурой для любой формы оценки .

оценка

#язык
#generativeai
#Metric

Процесс измерения качества модели или сравнения различных моделей друг с другом.

Чтобы оценить модель контролируемого машинного обучения , вы обычно судите ее по набору валидации и набора тестирования . Оценка LLM обычно включает в себя более широкие оценки качества и безопасности.

Ф

фактичность

#generativeai

В мире ML свойство, описывающее модель, результаты которого основаны на реальности. Фактическая концепция - это концепция, а не метрика. Например, предположим, что вы отправляете следующую подсказку на большую языковую модель :

Какова химическая формула для столовой соли?

Оптимизация модели, оптимизирующая факт, ответит:

NaCl

Заманчиво предположить, что все модели должны основываться на фактической основе. Тем не менее, некоторые подсказки, такие как следующие, должны привести к созданию генеративной модели ИИ для оптимизации творчества , а не фактической .

Расскажи мне лимерика об астронавте и гусенице.

Маловероятно, что полученный лимерик будет основан на реальности.

Контраст с обоснованностью .

Несколько выстрелов

#язык
#generativeai

Подсказка , которая содержит более одного (немногих ») примера, демонстрирующего, как должна отвечать большая языковая модель . Например, следующая длинная подсказка содержит два примера, показывающую большую языковую модель, как ответить на запрос.

Части одного подсказки Примечания
Какова официальная валюта указанной страны? Вопрос, на который вы хотите ответить LLM.
Франция: евро Один пример.
Великобритания: GBP Другой пример.
Индия: Фактический запрос.

Несколько выстрелов, как правило, дает более желательные результаты, чем подсказка с нулевым выстрелом и одноразовое побуждение . Тем не менее, для нескольких выстрелов требуется более длительная подсказка.

Несколько выстрелов-это форма нескольких выстрелов, применяемых к быстрому обучению .

Смотрите быстрое инженерное инженерное управление в курсе по сбою машинного обучения для получения дополнительной информации.

тонкая настройка

#язык
#изображение
#generativeai

Второй учебный проход, специфичный для задачи, выполненный на предварительно обученной модели , чтобы уточнить ее параметры для конкретного варианта использования. Например, полная последовательность тренировок для некоторых крупных языковых моделей заключается в следующем:

  1. Предварительное обучение: тренируйте большую языковую модель на общем общем наборе данных, например, все страницы Википедии на английском языке.
  2. Точная настройка: тренируйте предварительно обученную модель для выполнения определенной задачи, такой как реагирование на медицинские запросы. Точная настройка обычно включает в себя сотни или тысячи примеров, сфокусированных на конкретной задаче.

В качестве другого примера, полная тренировочная последовательность для большой модели изображения заключается в следующем:

  1. Предварительное обучение: тренируйте большую модель изображения на общем общем наборе данных изображения, таких как все изображения в Wikimedia Commons.
  2. Точная настройка: тренируйте предварительно обученную модель для выполнения определенной задачи, такой как генерация изображений ORCA.

Тонкая настройка может повлечь за собой любую комбинацию следующих стратегий:

  • Изменение всех существующих параметров предварительно обученной модели. Это иногда называют полной точной настройкой .
  • Изменение только некоторых из существующих параметров предварительно обученной модели (как правило, слои, ближайшие к выходному слою ), сохраняя при этом другие существующие параметры неизменными (как правило, слои, ближайшие к входному слою ). См. Параметр-эффективная настройка .
  • Добавление большего количества слоев, как правило, поверх существующих слоев, ближайших к выходному слою.

Точная настройка-это форма обучения передачи . Таким образом, тонкая настройка может использовать другую функцию потерь или другой тип модели, чем те, которые используются для обучения предварительно обученной модели. Например, вы можете точно настроить предварительно обученную большую модель изображения, чтобы создать регрессионную модель, которая возвращает количество птиц на входном изображении.

Сравните и сопоставьте точную настройку со следующими терминами:

Смотрите точную настройку в курсе сбоя машинного обучения для получения дополнительной информации.

доля успехов

#generativeai
#Metric

Метрика для оценки текста сгенерированного модели ML. Доля успехов - это количество «успешных» сгенерированных текстовых выходов, деленных на общее количество сгенерированных текстовых выходов. Например, если большая языковая модель сгенерировала 10 блоков кода, пять из которых были успешными, то доля успехов составила бы 50%.

Хотя доля успехов в целом полезна во всей статистике, в ML этот показатель в первую очередь полезен для измерения проверенных задач, таких как генерация кода или математические задачи.

Г

Близнецы

#язык
#изображение
#generativeai

Экосистема, включающая самый продвинутый ИИ Google. Элементы этой экосистемы включают:

Модели Близнецов

#язык
#изображение
#generativeai

Современные мультимодальные модели на основе трансформатора . Модели Близнецов специально разработаны для интеграции с агентами .

Пользователи могут взаимодействовать с моделями Близнецов различными способами, в том числе через интерактивный интерфейс диалога и через SDK.

сгенерированный текст

#язык
#generativeai

В целом, текст, который выводит модель ML. При оценке крупных языковых моделей некоторые метрики сравнивают сгенерированный текст с эталонным текстом . Например, предположим, что вы пытаетесь определить, насколько эффективно модель ML переводится с французского на голландский. В этом случае:

  • Сгенерированный текст - это голландский перевод, который выводит модель ML.
  • Справочный текст - это голландский перевод, который создает человеческий переводчик (или программное обеспечение).

Обратите внимание, что некоторые стратегии оценки не включают справочный текст.

генеративный ИИ

#язык
#изображение
#generativeai

Новое преобразующее поле без формального определения. Тем не менее, большинство экспертов согласны с тем, что генеративные модели искусственного интеллекта могут создавать («генерировать») контент, который все следующее:

  • сложный
  • последовательный
  • оригинальный

Например, генеративная модель ИИ может создавать сложные эссе или изображения.

Некоторые более ранние технологии, включая LSTM и RNN , также могут генерировать оригинальный и когерентный контент. Некоторые эксперты рассматривают эти предыдущие технологии как генеративный ИИ, в то время как другие считают, что истинный генеративный ИИ требует более сложного производства, чем могут производить более ранние технологии.

Контраст с прогнозированием ML .

золотой ответ

#язык
#generativeai

Ответ, известный как хороший. Например, учитывая следующую подсказку :

2 + 2

Надеемся, что золотой ответ:

4

ЧАС

человеческая оценка

#язык
#generativeai

Процесс, в котором люди судят качество вывода модели ML; Например, наличие двуязычных людей оценивает качество модели перевода ML. Человеческая оценка особенно полезна для оценки моделей, которые не имеют ни одного правильного ответа .

Контраст с автоматической оценкой и оценкой авторащиков .

Человек в петле (Хитл)

#generativeai

Слабо определенная идиома, которая может означать любое из следующих:

  • Политика просмотра генеративной выводы ИИ критически или скептически. Например, люди, которые пишут этот глоссарий ML, поражены тем, что могут делать крупные языковые модели, но помня о ошибках, которые делают крупные языковые модели.
  • Стратегия или система обеспечения того, чтобы люди помогали формировать, оценивать и усовершенствовать поведение модели. Сохранение человека в цикле позволяет ИИ получать выгоду как от машинного интеллекта, так и человеческого интеллекта. Например, система, в которой AI генерирует код, который затем просмотрите программные инженеры, представляет собой систему человека в петле.

я

Внутреннее обучение

#язык
#generativeai

Синоним для нескольких выстрелов .

настройка инструкции

#generativeai

Форма тонкой настройки , которая улучшает способность модели искусственного искусства следовать инструкциям. Настройка инструкций включает в себя обучение модели на серии подсказок инструкций, обычно охватывая широкий спектр задач. Полученная модель, настраиваемая настройку

Сравните и сопоставьте с:

л

Магистр права

#язык
#generativeai

Аббревиатура для большой языковой модели .

Оценки LLM (Evals)

#язык
#generativeai
#Metric

Набор метрик и критерии для оценки производительности крупных языковых моделей (LLMS). На высоком уровне, оценки LLM:

  • Помогите исследователям определить области, где LLMS нуждается в улучшении.
  • Полезны для сравнения различных LLMS и определения лучшего LLM для конкретной задачи.
  • Помогите обеспечить, чтобы LLM были безопасными и этическими в использовании.

См. Большие языковые модели (LLMS) в курсе сбоя машинного обучения для получения дополнительной информации.

ЛоРА

#язык
#generativeai

Аббревиатура для адаптивности с низким уровнем ранга .

Адаптируемость с низкой рейтингом (LORA)

#язык
#generativeai

Параметр-экономичный метод для тонкой настройки , который «замораживает» предварительно обученные веса модели (так, чтобы они больше не могли быть модифицированы), а затем вставляет небольшой набор обучаемых весов в модель. Этот набор обучаемых весов (также известных как «матрицы обновления») значительно меньше, чем базовая модель и, следовательно, гораздо быстрее тренироваться.

Лора предоставляет следующие преимущества:

  • Улучшает качество прогнозов модели для домена, где применяется тонкая настройка.
  • Тонкие настраивы быстрее, чем методы, которые требуют тонкой настройки всех параметров модели.
  • Снижает вычислительную стоимость вывода за счет одновременного обслуживания нескольких специализированных моделей, разделяющих одну и ту же базовую модель.

М

машинный перевод

#generativeai

Использование программного обеспечения (как правило, модель машинного обучения) для преобразования текста из одного человеческого языка в другой человеческий язык, например, от английского в японский.

Средняя средняя точность в K (map@k)

#язык
#generativeai
#Metric

Статистическое среднее из всей средней точности при оценках K по набору данных проверки. Одним из использования средней средней точности в K является оценка качества рекомендаций, генерируемых системой рекомендаций .

Хотя фраза «средний средний» звучит избыточно, имя метрики подходит. В конце концов, этот показатель находит среднее значение множественной средней точности при значениях K.

смесь экспертов

#язык
#generativeai

Схема для повышения эффективности нейронной сети , используя только подмножество его параметров (известных как эксперт ) для обработки данного входного токена или примера . Сетевая сеть маршрутирует каждый входной токен или пример для соответствующего эксперта.

Для получения подробной информации см. Любую из следующих документов:

Мит

#язык
#изображение
#generativeai

Сокращение для мультимодальной инструкции .

модель каскада

#generativeai

Система, которая выбирает идеальную модель для конкретного запроса вывода.

Представьте себе группу моделей, от очень больших (много параметров ) до гораздо меньших (гораздо меньших параметров). Очень крупные модели потребляют больше вычислительных ресурсов во время вывода , чем более мелкие модели. Тем не менее, очень крупные модели, как правило, могут вывести более сложные запросы, чем более мелкие модели. Модель каскада определяет сложность запроса вывода, а затем выбирает соответствующую модель для выполнения вывода. Основной мотивацией для модели каскада является снижение затрат на вывод путем в целом выбора более мелких моделей и выбора только более крупной модели для более сложных запросов.

Представьте, что небольшая модель работает по телефону, и большая версия этой модели работает на удаленном сервере. Хорошая модель каскада снижает стоимость и задержку, позволяя меньшей модели обрабатывать простые запросы и вызывая только удаленную модель для обработки сложных запросов.

См. Также модельный маршрутизатор .

модельный маршрутизатор

#generativeai

Алгоритм, который определяет идеальную модель для вывода в каскаде модели . Модельный маршрутизатор сама по себе является моделью машинного обучения, которая постепенно узнает, как выбрать лучшую модель для данного ввода. Тем не менее, модельный маршрутизатор иногда может быть более простым, не машино-обучением алгоритма.

Мо

#язык
#изображение
#generativeai

Сокращение для смеси экспертов .

МТ

#generativeai

Аббревиатура для машинного перевода .

Н

никто не правильный ответ (Нора)

#язык
#generativeai

Подсказка имеет несколько подходящих ответов. Например, в следующей подсказке нет единого правильного ответа:

Расскажи мне шутку о слонах.

Оценка подсказок с одним правом ответом может быть сложной задачей.

НОРА

#язык
#generativeai

Аббревиатура ни за один правильный ответ .

О

Один выстрел побуждение

#язык
#generativeai

Подсказка , которая содержит один пример, демонстрирующий, как должна отвечать большая языковая модель . Например, следующая подсказка содержит один пример, показывающий большую языковую модель, как она должна ответить на запрос.

Части одного подсказки Примечания
Какова официальная валюта указанной страны? Вопрос, на который вы хотите ответить LLM.
Франция: евро Один пример.
Индия: Фактический запрос.

Сравните и сопоставьте один выстрел с следующими терминами:

П

Параметр-эффективная настройка

#язык
#generativeai

Набор методов для тонкой настройки большой предварительно обученной языковой модели (PLM) более эффективно, чем полная тонкая настройка . Параметр-эффективная настройка обычно тонко настратывает гораздо меньше параметров , чем полная точная настройка, но обычно производит большую языковую модель , которая также работает (или почти также) как большая языковая модель, построенная из полной точной настройки.

Сравните и сопоставьте настройку параметров с:

Параметр-эффективная настройка также известна как эффективная настройка параметров .

ПЛМ

#язык
#generativeai

Аббревиатура для предварительно обученной языковой модели .

Пост обученная модель

#язык
#изображение
#generativeai

Свободно определенный термин, который обычно относится к предварительно обученной модели , которая прошла через некоторую постобработку, такую ​​как одно или несколько из следующих:

Предварительно обученная модель

#язык
#изображение
#generativeai

Как правило, модель, которая уже была обучена . Этот термин также может означать ранее обученный вектор встраивания .

Термин предварительно обученный языковой модель обычно относится к уже обученной большой языковой модели .

предварительное обучение

#язык
#изображение
#generativeai

Первоначальная подготовка модели на большом наборе данных. Некоторые предварительно обученные модели являются неуклюжими гигантами и обычно должны быть уточнены посредством дополнительного обучения. Например, эксперты ML могут предварительно обучить большую языковую модель в обширном текстовом наборе данных, например, все английские страницы в Википедии. После предварительного обучения полученная модель может быть дополнительно уточнена с помощью любого из следующих методов:

быстрый

#язык
#generativeai

Любой текст, введенный в качестве ввода в большую языковую модель , чтобы поддерживать модель, чтобы вести себя определенным образом. Подсказки могут быть такими же короткими, как фраза или произвольно длинные (например, весь текст романа). Подсказки делятся на несколько категорий, в том числе показанные в следующей таблице:

Быстрое категория Пример Примечания
Вопрос Как быстро может летать голубь?
Инструкция Напишите забавное стихотворение об арбитраже. Подсказка, которая просит большую языковую модель что -то сделать .
Пример Перевести код разметки в HTML. Например:
Markdown: * Список элемента
Html: <ul> <li> Список элемента </li> </ul>
Первым предложением в этом примере подсказка является инструкция. Остальная часть подсказки является примером.
Роль Объясните, почему градиент спуск используется в обучении машинного обучения для доктора философии. Первая часть предложения - это инструкция; Фраза «до доктора философии» - это роль.
Частичный вход для модели для завершения Премьер -министр Соединенного Королевства живет в Частичная подсказка ввода может либо резко заканчиваться (как это делает этот пример), либо заканчиваться подчеркиванием.

Генеративная модель искусственного интеллекта может ответить на подсказку с текстом, кодом, изображениями, встраиванием , видео ... почти чем угодно.

быстрое обучение

#язык
#generativeai

Возможность определенных моделей , которые позволяют им адаптировать свое поведение в ответ на произвольный ввод текста ( подсказка ). В типичной парадигме обучения на основе быстрого обучения крупная языковая модель реагирует на подсказку, генерируя текст. Например, предположим, что пользователь входит в следующую подсказку:

Суммируйте третий закон Ньютона.

Модель, способная к быстрому обучению на основе быстрого обучения, не обучена ответить на предыдущую подсказку. Скорее, модель «знает» много фактов о физике, о многом общих языковых правилах и многое о том, что в целом представляет собой полезные ответы. Этого знания достаточно, чтобы дать (надеюсь) полезный ответ. Дополнительные отзывы человека («Этот ответ был слишком сложным». Или «Что такое реакция?») Позволяет некоторым быстрым системам обучения постепенно повышать полезность своих ответов.

быстрый дизайн

#язык
#generativeai

Синоним для быстрого инженера .

оперативное проектирование

#язык
#generativeai

Искусство создания подсказок , которые вызывают желаемые ответы из большой языковой модели . Люди выполняют быструю инженерию. Написание хорошо структурированных подсказок является неотъемлемой частью обеспечения полезных ответов из крупной языковой модели. Обратная техническая инженерия зависит от многих факторов, в том числе:

Щелкий дизайн является синонимом быстрого проектирования.

См. Введение в inmport Design для получения более подробной информации о написании полезных подсказок.

быстрое настройка

#язык
#generativeai

Параметр эффективный механизм настройки , который изучает «префикс», который система приносит к фактической подсказке .

Один вариант быстрого настройки - иногда называемый настройкой префикса - состоит в том, чтобы подготовить префикс на каждом слое . Напротив, большинство быстрого настройки только добавляет префикс к входному слою .

Р

Справочный текст

#язык
#generativeai

Ответ эксперта на подсказку . Например, учитывая следующую подсказку:

Переведите вопрос "как вас зовут?" от английского до французского.

Ответ эксперта может быть:

Комментарий Vous Appelez-Vous?

Различные метрики (такие как Rouge ) измеряют степень, в которой эталонный текст соответствует генерируемому тексту ML -модели.

Подкрепление обучения от обратной связи человека (RLHF)

#generativeai
#rl

Использование обратной связи от оценителей человека для улучшения качества ответов модели. Например, механизм RLHF может попросить пользователей оценить качество ответа модели с помощью 👍 или 👎 эмодзи. Затем система может настроить свои будущие ответы на основе этой обратной связи.

Роль подсказка

#язык
#generativeai

Необязательная часть подсказки , которая идентифицирует целевую аудиторию для реакции генеративной модели ИИ . Без ролевой подсказки крупная языковая модель предоставляет ответ, который может быть или не быть полезным для человека, задающего вопросы. Благодаря ролевой подсказке, большая языковая модель может ответить более уместным и более полезным для конкретной целевой аудитории. Например, ролевая часть следующих подсказок находится в жирном шрифте:

  • Суммируйте этот документ для доктора наук в области экономики .
  • Опишите, как приливы работают для десятилетнего .
  • Объясните финансовый кризис 2008 года. Говорите, как вы могли бы маленького ребенка или золотистого ретривера.

С

Мягкая приглашенная настройка

#язык
#generativeai

Техника для настройки большой языковой модели для конкретной задачи, без интенсивной настройки ресурсов. Вместо переподготовки всех весов в модели, мягкая настройка приглашения автоматически регулирует подсказку для достижения одной и той же цели.

Учитывая текстовую подсказку, настройка мягкой подсказки обычно добавляет дополнительные встроенные токеновые вставки в подсказку и использует BackPropagation для оптимизации ввода.

«Жесткое» подсказка содержит фактические токены вместо встроенных токенов.

Т

температура

#язык
#изображение
#generativeai

Гиперпараметр , который контролирует степень случайности вывода модели. Более высокие температуры приводят к более случайной мощности, в то время как более низкие температуры приводят к менее случайной мощности.

Выбор наилучшей температуры зависит от конкретного применения и предпочтительных свойств выхода модели. Например, вы, вероятно, повысите температуру при создании приложения, которое генерирует творческий выход. И наоборот, вы, вероятно, снизили бы температуру при создании модели, которая классифицирует изображения или текст, чтобы повысить точность и согласованность модели.

Температура часто используется с Softmax .

З

нулевое побуждение

#язык
#generativeai

Подсказка , которая не дает примера того, как вы хотите, чтобы большая языковая модель ответила. Например:

Части одного подсказки Примечания
Какова официальная валюта указанной страны? Вопрос, на который вы хотите ответить LLM.
Индия: Фактический запрос.

Большая языковая модель может ответить любым из следующего:

  • Рупия
  • индийская рупия
  • Индийская рупия
  • Рупия
  • Индийская рупия

Все ответы верны, хотя вы можете предпочесть конкретный формат.

Сравните и сопоставьте подсказку с нулевым выстрелом со следующими терминами: