机器学习术语表:生成式 AI

本页面包含 Generative AI 术语表。如需查看所有术语表,请点击此处

自回归模型

#language
#image
#生成式 AI

一种模型model,用于根据自身先前的预测推断预测。例如,自动回归语言模型会根据先前预测的令牌来预测下一个令牌。所有基于 Transformer大型语言模型都是自回归模型。

相比之下,基于 GAN 的图像模型通常不是自动回归模型,因为它们在单次正向传递中生成图像,而不是逐步以迭代方式生成。不过,某些图片生成模型是自动回归模型,因为它们会逐步生成图片。

C

思维链提示

#language
#生成式 AI

一种提示工程技术,可鼓励大型语言模型 (LLM) 逐步说明其原因。例如,请特别注意下面的提示,请特别注意第二句:

驾驶员在一辆汽车中,在 7 秒内从每小时 0 增加到 60 英里时会产生多少重力?请在答案中显示所有相关的计算结果。

LLM 的响应可能会:

  • 显示物理公式序列,并在适当的位置插入值 0、60 和 7。
  • 解释为什么选择这些公式以及各个变量的含义。

思维链提示会强制 LLM 执行所有计算,这可能会获得更正确的答案。此外,思维链提示可让用户检查 LLM 的步骤,以确定答案是否合理。

D

直接提示

#language
#生成式 AI

零样本提示的同义词。

蒸馏

#生成式 AI

将一个模型model(称为“教师”model)的大小缩减为更小的模型(称为“学生”)来尽可能真实地模拟原始模型的预测的过程。model蒸馏非常有用,因为与大型模型(教师)相比,较小的模型有两个主要优势:

  • 推断速度更快
  • 减少内存和能耗

但是,学生的预测通常不如教师的预测好。

蒸馏会根据学生模型和教师模型的输出结果之间的差异,训练学生模型,以最大限度减少损失函数

将蒸馏与以下术语进行比较和对比:

F

小样本提示

#language
#生成式 AI

包含多个“几个”示例的提示,演示大型语言模型应如何响应。例如,以下很长的提示包含两个示例,它们展示了一个大型语言模型如何回答查询。

一条提示的组成部分 备注
指定国家/地区的官方货币是什么? 您希望 LLM 回答的问题。
法国:EUR 举个例子,
英国:英镑 再看看另一个示例。
印度 实际查询。

零样本提示单样本提示相比,小样本提示通常会产生更理想的结果。但是,小样本提示需要较长的提示时间。

小样本提示是小样本学习的一种形式,可应用于基于提示的学习

微调

#language
#image
#生成式 AI

预训练模型执行的第二次特定于任务的训练,以针对特定使用场景优化其参数。例如,某些大型语言模型的完整训练序列如下所示:

  1. 预训练:基于庞大的通用数据集(例如所有英语维基百科页面)训练大型语言模型。
  2. 微调:训练预训练模型以执行特定任务,例如响应医疗查询。微调通常涉及成百上千个侧重于特定任务的示例。

再举一个例子,大型图片模型的完整训练序列如下所示:

  1. 预训练:基于一个庞大的通用图片数据集(例如维基媒体共享文档中的所有图片)训练大型图片模型。
  2. 微调:训练预训练模型以执行特定任务,例如生成虎鲸的图片。

微调策略可采用以下策略的任意组合:

  • 修改预训练模型的所有现有参数这有时称为“完全微调”。
  • 仅修改预训练模型的部分现有参数(通常是最靠近输出层的层),同时保持其他现有参数不变(通常是最靠近输入层的层)。请参阅参数高效微调
  • 添加更多层,通常在最接近输出层的现有层之上。

微调是一种迁移学习因此,微调可能会使用与训练预训练模型不同的损失函数或不同的模型类型。例如,您可以对预训练的大型图片模型进行微调,以生成可返回输入图片中鸟类数量的回归模型。

使用以下术语比较微调和对比:

G

生成式 AI

#language
#image
#生成式 AI

一种新兴的变革性字段,没有正式定义。 尽管如此,大多数专家都认同生成式 AI 模型可以创建(“生成”)以下各项:

  • 复杂
  • 连贯
  • 原图

例如,生成式 AI 模型可以创建复杂的论文或图片。

一些早期技术(包括 LSTMRNN)也可以生成原始且连贯的内容。一些专家将这些早期技术视为生成式 AI,而另一些专家则认为真正的生成式 AI 需要的输出比这些早期技术生成的更为复杂。

预测性机器学习相对。

I

情境学习

#language
#生成式 AI

小样本提示的含义相同。

指令微调

#生成式 AI

一种微调形式,旨在提高生成式 AI 模型遵循指令的能力。指令调整涉及根据一系列指令提示训练模型,通常涵盖各种任务。随后,生成的指令调优模型倾向于在各种任务中针对零样本提示生成有用的响应。

与以下内容进行比较和对比:

O

一次性提示

#language
#生成式 AI

一个提示,其中包含演示大型语言模型应如何响应的一个示例。例如,以下提示包含一个示例,展示了大型语言模型应如何回答查询。

一条提示的组成部分 备注
指定国家/地区的官方货币是什么? 您希望 LLM 回答的问题。
法国:EUR 举个例子,
印度 实际查询。

一次性提示与以下术语进行比较和对比:

P

参数高效微调

#language
#生成式 AI

一组技术,用于比完全微调更高效的大型预训练语言模型 (PLM)参数高效微调通常对参数进行微调要比完全微调少得多,但一般会生成大型语言模型,该模型与通过完全微调构建的大型语言模型的表现相当(或几乎相同)。

将参数高效微调与以下各项进行比较和对比:

参数高效微调也称为“参数高效微调”。

PLM

#language
#生成式 AI

预训练语言模型的缩写。

预训练模型

#language
#image
#生成式 AI

已经过训练的模型或模型组件(例如嵌入向量)。有时,您需要将预训练的嵌入向量馈送到神经网络中。在其他时候,您的模型将自行训练嵌入向量,而不是依赖于预训练的嵌入。

术语预训练语言模型是指已完成预训练大型语言模型

预训练

#language
#image
#生成式 AI

基于大型数据集开始模型训练。一些预训练模型是笨拙的巨人,通常必须通过额外的训练来进行优化。例如,机器学习专家可能会基于庞大的文本数据集(例如维基百科中的所有英语页面)预训练大型语言模型。在预训练之后,可通过以下任何技术进一步优化生成的模型:

提示符

#language
#生成式 AI

作为大型语言模型的输入输入的任何文本,用于调整模型以特定方式运行。提示可以是短小的短语,也可以是任意长的(例如,小说的全文)。提示分为多个类别,包括下表中显示的类别:

提示类别 示例 备注
问题 鸽子可以飞多快?
教学 写一首关于套利的趣味诗歌。 一条提示,请求大型语言模型执行某项操作。
示例 将 Markdown 代码翻译为 HTML。例如:
Markdown: * 列表项
HTML: <ul> <li>列表项</li> </ul>
此示例提示中的第一句话是指令。提示的其余部分是示例。
角色 向物理学博士解释为什么说梯度下降法用于机器学习训练。 句子的第一部分是指示;短语“致物理学博士”是角色部分。
模型需要完成的部分输入 英国总理居住在 部分输入提示可以突然结束(如此示例所示)或以下划线结尾。

生成式 AI 模型可以使用文本、代码、图片、嵌入、视频等几乎任何内容来响应提示。

提示式学习

#language
#生成式 AI

某些模型的功能,可让模型调整自身行为以响应任意文本输入(提示)。在基于提示的典型学习范式中,大型语言模型通过生成文本来响应提示。例如,假设用户输入以下提示:

总结牛顿第三运动定律。

能够基于提示的学习的模型未经过专门训练,可回答上一条提示。相反,该模型“知道”许多关于物理学的知识、很多一般语言规则,以及很多关于一般有用的答案构成的内容。这些知识足以提供(有希望的)有用的答案。通过额外的人类反馈(“这个回答太复杂了。”或“有什么反应?”),一些基于提示的学习系统可以逐步提高答案的实用性。

提示设计

#language
#生成式 AI

提示工程的含义相同。

提示工程

#language
#生成式 AI

创建提示的艺术,从大型语言模型引发所需反应。人工执行提示工程。编写结构合理的提示是确保大型语言模型给出有用响应的重要部分。提示工程取决于多种因素,包括:

  • 用于预训练以及可能微调大型语言模型的数据集。
  • 模型用于生成响应的温度和其他解码参数。

如需详细了解如何编写实用的提示,请参阅提示设计简介

提示设计是提示工程的同义词。

提示调整

#language
#生成式 AI

参数高效微调机制,用于学习系统附加到实际提示前面的一个“前缀”。

提示调整的一种变体(有时称为前缀调整)是在每层前添加前缀。相比之下,大多数提示调整仅向输入层添加一个前缀。

R

基于人类反馈的强化学习 (RLHF)

#生成式 AI
#rl

利用人工审核者的反馈来提高模型的响应质量。 例如,RLHF 机制可以要求用户使用 👍? 或 👎? 表情符号对模型的响应质量。然后,系统可以根据该反馈调整未来的响应。

角色提示

#language
#生成式 AI

提示的可选部分,用于标识生成式 AI 模型响应的目标受众群体。如果没有角色提示,则大型语言模型提供的答案对提问的人可能有用,也可能没用。借助角色提示,大型语言模型能够以对特定目标受众群体更合适且更有用的方式回答问题。例如,以下提示的角色提示部分以粗体显示:

  • 请总结本文,为经济学博士学位撰写文章。
  • 描述潮汐如何对十岁孩子起作用。
  • 解释 2008 年金融危机。像对小孩子或金毛寻回犬那样说话。

T

温度

#language
#image
#生成式 AI

一个超参数,用于控制模型输出的随机性。温度越高,随机输出的随机性越高,而温度越低,随机输出越少。

选择最佳温度取决于具体应用和所需的模型输出属性。例如,在创建可生成广告素材输出的应用时,您可能会提高温度。相反,为了提高模型的准确性和一致性,在构建对图片或文本进行分类的模型时,您可能需要降低温度。

温度通常与 softmax 一起使用。

Z

零样本提示

#language
#生成式 AI

一个提示,没有提供您希望大型语言模型如何响应的示例。例如:

一条提示的组成部分 备注
指定国家/地区的官方货币是什么? 您希望 LLM 回答的问题。
印度 实际查询。

大型语言模型可能会做出以下响应:

  • 卢比符号
  • INR
  • 印度卢比
  • 卢比
  • 印度卢比

所有答案都正确,不过您可能更希望使用某种格式。

零样本提示与以下术语进行比较和对比: