Глоссарий машинного обучения: генеративный ИИ

На этой странице содержится глоссарий терминов генеративного искусственного интеллекта. Чтобы просмотреть все термины глоссария, нажмите здесь .

А

автоматическая оценка

#язык
#генеративныйИИ

Использование программного обеспечения для оценки качества вывода модели.

Если выходные данные модели относительно просты, сценарий или программа могут сравнить выходные данные модели с золотым ответом . Этот тип автоматической оценки иногда называют программной оценкой . Такие показатели, как ROUGE или BLEU, часто полезны для программной оценки.

Если выходные данные модели сложны или не имеют единственного правильного ответа , отдельная программа машинного обучения, называемая авторейтером, иногда выполняет автоматическую оценку.

Сравните с человеческой оценкой .

авторейтерская оценка

#язык
#генеративныйИИ
Гибридный механизм оценки качества результатов генеративной модели ИИ , сочетающий человеческую оценку с автоматической оценкой . Авторрейтер — это модель машинного обучения, обученная на данных, полученных в результате оценки человеком . В идеале авторрейтер учится подражать оценщику-человеку.

Доступны готовые авторейтинги, но лучшие авторейтинги точно настроены специально для задачи, которую вы оцениваете.

авторегрессионная модель

#язык
#изображение
#генеративныйИИ

Модель , которая делает прогноз на основе собственных предыдущих прогнозов. Например, авторегрессионные языковые модели прогнозируют следующий токен на основе ранее предсказанных токенов. Все модели большого языка на основе Transformer являются авторегрессионными.

Напротив, модели изображений на основе GAN обычно не являются авторегрессионными, поскольку они генерируют изображение за один проход вперед, а не поэтапно итеративно. Однако некоторые модели генерации изображений являются авторегрессионными, поскольку они генерируют изображение поэтапно.

С

подсказка по цепочке мыслей

#язык
#генеративныйИИ

Метод быстрого проектирования , который побуждает большую языковую модель (LLM) шаг за шагом объяснять свои рассуждения. Например, рассмотрите следующую подсказку, уделив особое внимание второму предложению:

Какую силу перегрузки испытает водитель автомобиля, разгоняющегося от 0 до 60 миль в час за 7 секунд? В ответе покажите все соответствующие расчеты.

Ответ LLM, скорее всего, будет следующим:

  • Покажите последовательность физических формул, вставляя значения 0, 60 и 7 в соответствующие места.
  • Объясните, почему он выбрал именно эти формулы и что означают различные переменные.

Подсказки по цепочке мыслей заставляют LLM выполнять все вычисления, которые могут привести к более правильному ответу. Кроме того, подсказки по цепочке мыслей позволяют пользователю изучить шаги LLM, чтобы определить, имеет ли ответ смысл.

чат

#язык
#генеративныйИИ

Содержимое двустороннего диалога с системой машинного обучения, обычно это большая языковая модель . Предыдущее взаимодействие в чате (то, что вы набрали и как ответила большая языковая модель) становится контекстом для последующих частей чата.

Чат-бот — это приложение большой языковой модели.

контекстуализированное языковое встраивание

#язык
#генеративныйИИ

Встраивание , близкое к «пониманию» слов и фраз так, как это могут делать носители языка. Контекстуализированные языковые внедрения могут понимать сложный синтаксис, семантику и контекст.

Например, рассмотрим встраивание английского слова «cow» . Старые внедрения, такие как word2vec, могут представлять английские слова таким образом, что расстояние в пространстве встраивания от коровы до быка аналогично расстоянию от овцы (овцы-самки) до барана (овцы-самцы) или от самки до самца . Контекстуализированные языковые встраивания могут пойти еще дальше, признав, что носители английского языка иногда случайно используют слово « корова» для обозначения либо коровы, либо быка.

контекстное окно

#язык
#генеративныйИИ

Количество токенов, которые модель может обработать в заданном приглашении . Чем больше контекстное окно, тем больше информации модель может использовать для предоставления последовательных и последовательных ответов на запрос.

Д

прямое побуждение

#язык
#генеративныйИИ

Синоним подсказки с нулевым выстрелом .

дистилляция

#генеративныйИИ

Процесс уменьшения размера одной модели (известной как учитель ) до модели меньшего размера (известной как ученик ), которая максимально точно имитирует предсказания исходной модели. Дистилляция полезна, потому что меньшая модель имеет два ключевых преимущества перед более крупной моделью (учителем):

  • Более быстрое время вывода
  • Уменьшение потребления памяти и энергии.

Однако прогнозы ученика обычно не так хороши, как прогнозы учителя.

Дистилляция обучает модель ученика минимизировать функцию потерь на основе разницы между результатами прогнозов моделей ученика и учителя.

Сравните и сопоставьте дистилляцию со следующими терминами:

Дополнительную информацию см. в разделе «LLM: точная настройка, дистилляция и быстрое проектирование» в ускоренном курсе машинного обучения.

Э

оценивает

#язык
#генеративныйИИ

В основном используется как аббревиатура для оценок LLM . В более широком смысле, evals — это аббревиатура, обозначающая любую форму оценки .

оценка

#язык
#генеративныйИИ

Процесс измерения качества модели или сравнения различных моделей друг с другом.

Чтобы оценить модель контролируемого машинного обучения , вы обычно сравниваете ее с набором проверки и набором тестов . Оценка LLM обычно включает в себя более широкую оценку качества и безопасности.

Ф

фактичность

#генеративныйИИ

В мире МО — свойство, описывающее модель, выходные данные которой основаны на реальности. Фактичность — это скорее концепция, чем показатель. Например, предположим, что вы отправляете следующую подсказку в большую языковую модель :

Какова химическая формула поваренной соли?

Модель, оптимизирующая фактологию, ответила бы:

NaCl

Заманчиво предположить, что все модели должны основываться на фактах. Однако некоторые подсказки, такие как следующие, должны привести к тому, что генеративная модель ИИ оптимизирует творческий подход , а не фактологию .

Расскажи мне лимерик про космонавта и гусеницу.

Вряд ли получившийся лимерик будет основан на реальности.

Сравните с заземленностью .

подсказка из нескольких кадров

#язык
#генеративныйИИ

Приглашение , содержащее более одного («несколько») примеров, демонстрирующих, как должна реагировать большая языковая модель . Например, следующая длинная подсказка содержит два примера, показывающие большую языковую модель, как отвечать на запрос.

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Франция: евро Один пример.
Великобритания: фунт стерлингов. Другой пример.
Индия: Фактический запрос.

Подсказки с небольшим количеством шагов обычно дают более желательные результаты, чем подсказки с нулевым шагом и одноразовые подсказки . Однако подсказка с несколькими выстрелами требует более длинной подсказки.

Подсказки в несколько этапов — это форма обучения в несколько этапов, применяемая к обучению на основе подсказок .

Дополнительную информацию см. в разделе «Быстрое проектирование» в ускоренном курсе машинного обучения.

тонкая настройка

#язык
#изображение
#генеративныйИИ

Второй проход обучения для конкретной задачи, выполняемый на предварительно обученной модели для уточнения ее параметров для конкретного варианта использования. Например, полная последовательность обучения для некоторых больших языковых моделей выглядит следующим образом:

  1. Предварительное обучение: обучите большую языковую модель на обширном общем наборе данных, например на всех англоязычных страницах Википедии.
  2. Точная настройка: обучение предварительно обученной модели выполнению конкретной задачи, например ответа на медицинские запросы. Точная настройка обычно включает сотни или тысячи примеров, ориентированных на конкретную задачу.

В качестве другого примера полная последовательность обучения для модели большого изображения выглядит следующим образом:

  1. Предварительное обучение: обучите большую модель изображения на обширном общем наборе данных изображений, например на всех изображениях в Wikimedia Commons.
  2. Точная настройка: обучение предварительно обученной модели выполнению конкретной задачи, например генерации изображений косаток.

Точная настройка может включать любую комбинацию следующих стратегий:

  • Изменение всех существующих параметров предварительно обученной модели. Иногда это называют полной тонкой настройкой .
  • Изменение только некоторых существующих параметров предварительно обученной модели (обычно слоев, ближайших к выходному слою ), сохраняя при этом другие существующие параметры неизменными (обычно слои, ближайшие к входному слою ). См. настройку с эффективным использованием параметров .
  • Добавление дополнительных слоев, обычно поверх существующих слоев, ближайших к выходному слою.

Точная настройка — это форма трансферного обучения . Таким образом, при точной настройке может использоваться другая функция потерь или другой тип модели, чем те, которые используются для обучения предварительно обученной модели. Например, вы можете точно настроить предварительно обученную модель большого изображения для создания регрессионной модели, которая возвращает количество птиц во входном изображении.

Сравните и сопоставьте тонкую настройку со следующими терминами:

Дополнительные сведения см. в разделе «Точная настройка ускоренного курса машинного обучения».

доля успехов

#генеративныйИИ

Метрика для оценки текста, сгенерированного моделью машинного обучения. Доля успехов — это количество «успешных» сгенерированных текстовых выходных данных, деленное на общее количество сгенерированных текстовых выходных данных. Например, если большая языковая модель сгенерировала 10 блоков кода, пять из которых оказались успешными, то доля успешных результатов составит 50%.

Хотя доля успехов широко полезна в статистике, в рамках машинного обучения этот показатель в первую очередь полезен для измерения проверяемых задач, таких как генерация кода или математические задачи.

Г

Близнецы

#язык
#изображение
#генеративныйИИ

Экосистема, включающая самый передовой искусственный интеллект Google. К элементам этой экосистемы относятся:

  • Различные модели Gemini .
  • Интерактивный диалоговый интерфейс модели Gemini . Пользователи вводят запросы, и Gemini отвечает на эти запросы.
  • Различные API Gemini.
  • Различные бизнес-продукты на основе моделей Gemini; например, Gemini для Google Cloud .

Модели Близнецов

#язык
#изображение
#генеративныйИИ

Новейшие мультимодальные модели Google на основе Transformer . Модели Gemini специально разработаны для интеграции с агентами .

Пользователи могут взаимодействовать с моделями Gemini различными способами, в том числе через интерактивный диалоговый интерфейс и через SDK.

сгенерированный текст

#язык
#генеративныйИИ

В общем, текст, который выводит модель машинного обучения. При оценке больших языковых моделей некоторые метрики сравнивают сгенерированный текст с ссылочным текстом . Например, предположим, что вы пытаетесь определить, насколько эффективно модель машинного обучения переводится с французского на голландский. В этом случае:

  • Сгенерированный текст представляет собой голландский перевод, который выводит модель машинного обучения.
  • Справочный текст — это голландский перевод, созданный переводчиком-человеком (или программным обеспечением).

Обратите внимание, что некоторые стратегии оценки не включают справочный текст.

генеративный ИИ

#язык
#изображение
#генеративныйИИ

Возникающее преобразующее поле без формального определения. Тем не менее, большинство экспертов сходятся во мнении, что генеративные модели ИИ могут создавать («генерировать») контент, который имеет все следующие характеристики:

  • сложный
  • последовательный
  • оригинальный

Например, генеративная модель ИИ может создавать сложные эссе или изображения.

Некоторые более ранние технологии, включая LSTM и RNN , также могут генерировать оригинальный и связный контент. Некоторые эксперты рассматривают эти более ранние технологии как генеративный ИИ, в то время как другие считают, что настоящий генеративный ИИ требует более сложных результатов, чем те, которые могут произвести более ранние технологии.

Сравните с прогнозным ML .

золотой ответ

#язык
#генеративныйИИ

Заведомо хороший ответ. Например, учитывая следующую подсказку :

2 + 2

Надеемся, что золотой ответ будет следующим:

4

ЧАС

человеческая оценка

#язык
#генеративныйИИ

Процесс, в котором люди оценивают качество результатов модели ML; например, двуязычные люди оценивают качество модели перевода ML. Человеческая оценка особенно полезна для оценки моделей, которые не имеют единственного правильного ответа .

Сравните с автоматической оценкой и оценкой авторами .

человек в курсе (HITL)

#генеративныйИИ

Идиома с неопределенным определением, которая может означать одно из следующих значений:

  • Политика критического или скептического рассмотрения результатов генеративного ИИ. Например, люди, написавшие этот глоссарий машинного обучения, поражены тем, на что способны большие языковые модели , но помнят об ошибках, которые допускают большие языковые модели.
  • Стратегия или система, гарантирующая, что люди помогают формировать, оценивать и совершенствовать поведение модели. Если держать человека в курсе событий, ИИ может извлечь выгоду как из машинного, так и из человеческого интеллекта. Например, система, в которой ИИ генерирует код, который затем проверяют инженеры-программисты, представляет собой систему с участием человека.

я

обучение в контексте

#язык
#генеративныйИИ

Синоним « подсказки с несколькими выстрелами» .

инструкция по настройке

#генеративныйИИ

Форма тонкой настройки , которая улучшает способность генеративной модели ИИ следовать инструкциям. Настройка инструкций включает в себя обучение модели с помощью серии инструкций, обычно охватывающих широкий спектр задач. Полученная в результате модель, настроенная на инструкции, затем имеет тенденцию генерировать полезные ответы на подсказки с нулевым результатом для различных задач.

Сравните и противопоставьте:

л

Магистр права

#язык
#генеративныйИИ

Аббревиатура для большой языковой модели .

LLM оценки (оценки)

#язык
#генеративныйИИ

Набор метрик и тестов для оценки производительности больших языковых моделей (LLM). На высоком уровне оценки LLM:

  • Помогите исследователям определить области, где LLM нуждается в улучшении.
  • Полезны для сравнения различных LLM и определения лучшего LLM для конкретной задачи.
  • Помогите гарантировать, что использование LLM безопасно и этически.

ЛоРА

#язык
#генеративныйИИ

Аббревиатура для адаптивности низкого ранга .

Адаптивность низкого ранга (LoRA)

#язык
#генеративныйИИ

Эффективный по параметрам метод точной настройки , который «замораживает» предварительно обученные веса модели (таким образом, что их больше нельзя изменить), а затем вставляет в модель небольшой набор обучаемых весов. Этот набор обучаемых весов (также известный как «матрицы обновления») значительно меньше базовой модели и поэтому обучается гораздо быстрее.

LoRA предоставляет следующие преимущества:

  • Улучшает качество прогнозов модели для области, к которой применяется точная настройка.
  • Точная настройка выполняется быстрее, чем методы, требующие точной настройки всех параметров модели.
  • Снижает вычислительные затраты на вывод , позволяя одновременно обслуживать несколько специализированных моделей, использующих одну и ту же базовую модель.

М

машинный перевод

#генеративныйИИ

Использование программного обеспечения (обычно модели машинного обучения) для преобразования текста с одного человеческого языка на другой человеческий язык, например, с английского на японский.

средняя средняя точность при k (mAP@k)

#язык
#генеративныйИИ

Статистическое среднее всей средней точности при k баллах в наборе проверочных данных. Одним из вариантов использования средней точности при k является оценка качества рекомендаций, генерируемых системой рекомендаций .

Хотя фраза «среднее среднее» звучит избыточно, название показателя вполне подходящее. В конце концов, эта метрика находит среднее значение множественной средней точности при значениях k .

смесь экспертов

#язык
#генеративныйИИ

Схема повышения эффективности нейронной сети за счет использования только подмножества ее параметров (известного как эксперт ) для обработки данного входного токена или примера . Сеть шлюзов направляет каждый входной токен или пример соответствующему эксперту(ам).

Подробную информацию см. в одном из следующих документов:

ММИТ

#язык
#изображение
#генеративныйИИ

Аббревиатура для мультимодальных инструкций, настроенных .

каскадирование модели

#генеративныйИИ

Система, которая выбирает идеальную модель для конкретного запроса вывода.

Представьте себе группу моделей, от очень больших (много параметров ) до гораздо меньших (гораздо меньше параметров). Очень большие модели потребляют больше вычислительных ресурсов во время вывода , чем модели меньшего размера. Однако очень большие модели обычно могут выводить более сложные запросы, чем модели меньшего размера. Каскадирование моделей определяет сложность запроса на вывод, а затем выбирает подходящую модель для выполнения вывода. Основной мотивацией каскадирования моделей является снижение затрат на логические выводы за счет выбора моделей меньшего размера и выбора более крупной модели только для более сложных запросов.

Представьте, что небольшая модель работает на телефоне, а более крупная версия этой модели работает на удаленном сервере. Хорошее каскадирование моделей снижает затраты и задержки, позволяя меньшей модели обрабатывать простые запросы и вызывая удаленную модель только для обработки сложных запросов.

См. также модель маршрутизатора .

модель маршрутизатора

#генеративныйИИ

Алгоритм, определяющий идеальную модель для вывода при каскадировании моделей . Модель маршрутизатора сама по себе обычно представляет собой модель машинного обучения, которая постепенно учится выбирать лучшую модель для данного входного сигнала. Однако модель маршрутизатора иногда может представлять собой более простой алгоритм, не требующий машинного обучения.

МЧС

#язык
#изображение
#генеративныйИИ

Сокращение от смеси экспертов .

МТ

#генеративныйИИ

Аббревиатура машинного перевода .

Н

нет ни одного правильного ответа (НОРА)

#язык
#генеративныйИИ

Подсказка с несколькими подходящими ответами. Например, следующая подсказка не имеет единственного правильного ответа:

Расскажи мне анекдот про слонов.

Оценка подсказок, на которые нет ни одного правильного ответа, может оказаться сложной задачей.

НОРА

#язык
#генеративныйИИ

Аббревиатура, обозначающая « нет единственного правильного ответа» .

О

одноразовая подсказка

#язык
#генеративныйИИ

Приглашение , содержащее один пример, демонстрирующий, как должна реагировать большая языковая модель . Например, следующая подсказка содержит один пример, показывающий, как большая языковая модель должна отвечать на запрос.

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Франция: евро Один пример.
Индия: Фактический запрос.

Сравните и сопоставьте одноразовые подсказки со следующими терминами:

П

настройка с эффективным использованием параметров

#язык
#генеративныйИИ

Набор методов для более эффективной тонкой настройки большой предварительно обученной языковой модели (PLM), чем полная точная настройка . При настройке с эффективным использованием параметров обычно выполняется гораздо меньше параметров , чем при полной точной настройке, но, как правило, создается большая языковая модель , которая работает так же хорошо (или почти так же хорошо), как и большая языковая модель, построенная на основе полной тонкой настройки.

Сравните и сопоставьте эффективную настройку параметров с:

Настройка с эффективным использованием параметров также известна как точная настройка с эффективным использованием параметров .

ПЛМ

#язык
#генеративныйИИ

Аббревиатура предварительно обученной языковой модели .

постобученная модель

#язык
#изображение
#генеративныйИИ

Свободно определенный термин, который обычно относится к предварительно обученной модели , прошедшей некоторую постобработку, например одно или несколько из следующих действий:

предварительно обученная модель

#язык
#изображение
#генеративныйИИ

Обычно это уже обученная модель. Этот термин также может означать ранее обученный вектор внедрения .

Термин «предварительно обученная языковая модель» обычно относится к уже обученной большой языковой модели .

предварительная подготовка

#язык
#изображение
#генеративныйИИ

Начальное обучение модели на большом наборе данных. Некоторые предварительно обученные модели являются неуклюжими гигантами и обычно требуют доработки посредством дополнительного обучения. Например, эксперты по машинному обучению могут предварительно обучить большую языковую модель на обширном наборе текстовых данных, например на всех английских страницах в Википедии. После предварительного обучения полученная модель может быть дополнительно уточнена с помощью любого из следующих методов:

быстрый

#язык
#генеративныйИИ

Любой текст, вводимый в качестве входных данных в большую языковую модель, чтобы заставить модель вести себя определенным образом. Подсказки могут быть короткими, как фраза, или произвольной длины (например, весь текст романа). Подсказки делятся на несколько категорий, включая те, которые показаны в следующей таблице:

Категория подсказки Пример Примечания
Вопрос Как быстро может летать голубь?
Инструкция Напишите забавное стихотворение об арбитраже. Подсказка, которая просит большую языковую модель что-то сделать .
Пример Переведите код Markdown в HTML. Например:
Уценка: * элемент списка
HTML: <ul> <li>элемент списка</li> </ul>
Первое предложение в этом примере приглашения представляет собой инструкцию. Оставшаяся часть приглашения является примером.
Роль Объясните, почему градиентный спуск используется при обучении машинному обучению для доктора философии по физике. Первая часть предложения представляет собой инструкцию; фраза «до степени доктора физики» является ролевой частью.
Частичный ввод для завершения модели Премьер-министр Соединенного Королевства живет в Подсказка частичного ввода может либо внезапно закончиться (как в этом примере), либо закончиться подчеркиванием.

Генеративная модель ИИ может отвечать на запрос текстом, кодом, изображениями, встраиваниями , видео… почти чем угодно.

быстрое обучение

#язык
#генеративныйИИ

Способность определенных моделей , позволяющая им адаптировать свое поведение в ответ на произвольный ввод текста ( подсказки ). В типичной парадигме обучения на основе подсказок большая языковая модель реагирует на подсказку, генерируя текст. Например, предположим, что пользователь вводит следующую подсказку:

Кратко изложите третий закон движения Ньютона.

Модель, способная к обучению на основе подсказок, специально не обучена отвечать на предыдущую подсказку. Скорее, модель «знает» множество фактов о физике, много об общих правилах языка и многое о том, что представляет собой вообще полезные ответы. Этих знаний достаточно, чтобы дать (надеюсь) полезный ответ. Дополнительная обратная связь от человека («Этот ответ был слишком сложным» или «Какая реакция?») позволяет некоторым системам обучения на основе подсказок постепенно повышать полезность своих ответов.

быстрый дизайн

#язык
#генеративныйИИ

Синоним оперативного проектирования .

оперативное проектирование

#язык
#генеративныйИИ

Искусство создания подсказок , вызывающих желаемые ответы из большой языковой модели . Люди выполняют быстрые инженерные работы. Написание хорошо структурированных подсказок является важной частью обеспечения полезных ответов от большой языковой модели. Оперативное проектирование зависит от многих факторов, в том числе:

Дополнительные сведения о написании полезных подсказок см. в разделе «Введение в дизайн подсказок» .

Оперативное проектирование – это синоним оперативного проектирования.

оперативная настройка

#язык
#генеративныйИИ

Эффективный механизм настройки параметров , который запоминает «префикс», который система добавляет к фактическому приглашению .

Один из вариантов быстрой настройки, иногда называемый настройкой префикса , заключается в добавлении префикса на каждом уровне . Напротив, в большинстве случаев быстрая настройка добавляет только префикс к входному слою .

Р

справочный текст

#язык
#генеративныйИИ

Ответ эксперта на подсказку . Например, учитывая следующую подсказку:

Перевести вопрос «Как тебя зовут?» с английского на французский.

Ответ эксперта может быть таким:

Комментарий vous appelez-vous?

Различные метрики (например, ROUGE ) измеряют степень соответствия справочного текста тексту , сгенерированному моделью ML.

Обучение с подкреплением на основе обратной связи с человеком (RLHF)

#генеративныйИИ
#рл

Использование отзывов оценщиков для улучшения качества ответов модели. Например, механизм RLHF может попросить пользователей оценить качество ответа модели с помощью смайликов 👍 или 👎. Затем система может скорректировать свои будущие ответы на основе этой обратной связи.

подсказка роли

#язык
#генеративныйИИ

Необязательная часть запроса , определяющая целевую аудиторию для ответа генеративной модели ИИ . Без ролевой подсказки большая языковая модель дает ответ, который может оказаться полезным, а может и не оказаться полезным для человека, задающего вопросы. Благодаря подсказке о роли большая языковая модель может ответить более подходящим и более полезным для конкретной целевой аудитории способом. Например, часть подсказки о роли в следующих подсказках выделена жирным шрифтом:

  • Кратко изложите эту статью для доктора экономических наук .
  • Опишите, как приливы действуют на десятилетнего ребенка .
  • Объясните финансовый кризис 2008 года. Разговаривайте так, как если бы вы разговаривали с маленьким ребенком или золотистым ретривером.

С

мягкая быстрая настройка

#язык
#генеративныйИИ

Техника настройки большой языковой модели для конкретной задачи без ресурсоемкой тонкой настройки . Вместо повторного обучения всех весов в модели мягкая настройка подсказки автоматически корректирует подсказку для достижения той же цели.

Учитывая текстовое приглашение, программная настройка приглашения обычно добавляет к приглашению дополнительные вставки токенов и использует обратное распространение ошибки для оптимизации ввода.

«Жесткое» приглашение содержит фактические токены вместо встраивания токенов.

Т

температура

#язык
#изображение
#генеративныйИИ

Гиперпараметр , который контролирует степень случайности выходных данных модели. Более высокие температуры приводят к более случайному выходному сигналу, тогда как более низкие температуры приводят к менее случайному выходному сигналу.

Выбор оптимальной температуры зависит от конкретного применения и предпочтительных свойств выходной модели. Например, вы, вероятно, повысите температуру при создании приложения, генерирующего творческий результат. И наоборот, вы, вероятно, понизите температуру при построении модели, которая классифицирует изображения или текст, чтобы повысить точность и согласованность модели.

Температура часто используется с softmax .

З

подсказка с нулевым выстрелом

#язык
#генеративныйИИ

Приглашение , не содержащее примера того, как должна реагировать большая языковая модель . Например:

Части одной подсказки Примечания
Какая официальная валюта указанной страны? Вопрос, на который вы хотите получить ответ от LLM.
Индия: Фактический запрос.

Модель большого языка может ответить любым из следующих действий:

  • Рупия
  • индийская рупия
  • Индийская рупия
  • рупия
  • Индийская рупия

Все ответы верны, хотя вы можете предпочесть определенный формат.

Сравните и сопоставьте подсказки «нулевого выстрела» со следующими терминами: