机器学习术语表:聚类

此页面包含聚类术语表术语。如需了解所有术语表,请点击此处

A

聚类聚类

#clustering

请参阅层次聚类

C

形心

#clustering

通过 k-averagek-median 算法确定的聚类中心。例如,如果 k 为 3,则 k-average 或 k-median 算法会找出 3 个形心。

形心聚类

#clustering

一种将数据分类为非分层集群的聚类算法类别。k-令是最广泛使用的形心聚类算法。

层次聚类算法相对。

聚类

#clustering

对相关示例进行分组,尤其是在非监督式学习期间。将所有样本分组后,用户可以选择为每个聚类提供含义。

有许多聚类算法存在。例如,k-平均值算法基于样本与形心的接近度来聚类,如下图所示:

一个二维图表,其中 x 轴标记为“树宽”,y 轴标记为“树高度”。该图包含两个形心和几十个数据点。系统会根据数据点的远近对其进行分类。也就是说,最接近一个形心的数据点会被归入“聚类 1”,而最接近另一个形心的数据点则被归入“聚类 2”。

然后,研究人员可以研究这些聚类,例如将聚类 1 标记为“矮树”,将聚类 2 标记为“全尺寸树”。

再举一个例子,假设某个聚类算法基于一个样本与中心点的距离,如下图所示:

几十个数据点以同心圆的方式排列,就像飞镖盘中心的孔洞一样。最内层的数据点分类为“聚类 1”,中间的环归类为聚类 2,最外的环归类为聚类 3。{0}{/1}

D

划分聚类

#clustering

请参阅层次聚类

分层聚类

#clustering

一种类别聚类算法,用于创建聚类树。层次聚类非常适合分层数据,例如植物分类。层次聚类算法有两种类型:

  • 凝聚式聚类首先将每个样本分配给其自己的聚类,然后以迭代方式合并最近的聚类以创建分层树。
  • 多样化聚类首先将所有样本分组到一个聚类中,然后以迭代方式将聚类划分为一个分层树。

基于形心的聚类相对。

K

K-平均值

#clustering

一种热门的聚类算法,可将非监督式学习中的样本分组。k-average 算法基本上具有以下作用:

  • 以迭代方式确定最佳的 k 中心点(称为形心)。
  • 将每个样本分配到最接近的形心。与同一个形心距离最近的样本属于同一个组。

k-average 算法会选择形心位置,以最大限度地减小每个样本与其最接近形心之间的距离的累积平方。

请参考以下狗狗身高与狗狗宽度的对比图:

包含几十个数据点的笛卡尔图。

如果 k=3,k-平均值算法将确定三个形心。每个样本都被分配给与其最接近的形心,从而产生三个组:

与上图所示的笛卡尔图相同,但添加了三个形心。之前的数据点会聚类为三个不同的组,每个组表示最接近特定形心的数据点。

假设制造商希望为小狗、中号和大号毛衣确定理想的尺寸。三个形心标识该聚类中每只狗的平均高度和平均宽度。因此,制造商可能应该基于这三个形心确定毛衣尺寸。请注意,聚类的形心通常不是聚类中的样本。

上图显示了具有两个特征(高度和宽度)的示例的 k-average。请注意,k-} 可以跨多个特征对样本进行分组。

k-median

#clustering

k-平均值密切相关的聚类算法。两者的实际区别如下:

  • 对于 k-平均值,确定形心的方法是,最大限度地减小候选形心与它的每个样本之间的距离平方和。
  • 对于 k-median,确定形心的方法是,最大限度地减小候选形心与它的每个样本之间的距离总和。

请注意,距离的定义也不同:

  • k-平均值取决于从形心到样本的欧几里得距离。(在二维空间中,欧几里得距离意味着使用勾股定理来计算斜边。)例如,(2,2) 与 (5,-2) 之间的 k-average 距离为:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • k-median 采用从形心到样本的曼哈顿距离。此距离是每个维度中绝对增量的总和。例如,(2,2) 与 (5,-2) 之间的 k-median 距离为:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

S

相似度衡量

#clustering

聚类算法中,用于确定任意两个样本相似程度的指标。

素描

#clustering

非监督式机器学习中的一类算法,针对样本执行初步相似性分析。略图构造算法使用局部敏感哈希函数来识别可能相似的点,然后将它们分组到存储分区中。

Sketching 可减少对大型数据集进行相似性计算所需的计算量。我们没有计算数据集内每对样本的相似度,而是只计算每个桶中每对点的相似度。

T

时序分析

#clustering

机器学习和统计信息的子字段,用于分析时态数据。许多类型的机器学习问题都需要时序分析,包括分类、聚类、预测和异常值检测。例如,您可以使用时间序列分析,根据历史销售数据按月预测冬季外套的未来销售额。

U

非监督式机器学习

#clustering
#fundamentals

训练模型,以找出数据集(通常是无标签数据集)内的规律。

非监督式机器学习的最常见用途是数据聚类到相似的样本组中。例如,非监督式机器学习算法可以根据音乐的各种属性对歌曲进行聚类。最终的集群可作为其他机器学习算法(例如音乐推荐服务)的输入。当有用标签较少或不存在时,聚类有助于。例如,在反滥用和欺诈等领域,集群可以帮助人们更好地了解数据。

监督式机器学习相对。