主要内容

使用高斯混合模型聚类

本主题介绍使用统计学和机器学习工具箱™函数使用高斯混合模型(GMM)进行聚类集群,以及一个示例,该示例展示了当使用GMM模型拟合时指定可选参数的效果fitgmdist

高斯混合模型如何聚类数据

高斯混合模型(GMMs)常用于数据聚类。您可以使用gmm来执行这两种操作聚类或对查询数据进行聚类。

执行聚类时,GMM将查询数据点分配给多元正态分量,使分量的后验概率最大化,给定数据。也就是说,给定一个合适的GMM,集群将查询数据分配给产生最高后验概率的组件。硬聚类将一个数据点精确地分配给一个聚类。有关如何将GMM与数据拟合、使用拟合模型进行聚类和估计组件后验概率的示例,请参见用硬聚类方法聚类高斯混合数据

此外,您可以使用GMM对数据执行更灵活的集群,称为(或模糊)集群。软聚类方法为每个聚类的一个数据点分配一个分数。得分的值表示数据点与集群的关联强度。相对于硬聚类方法,软聚类方法是灵活的,因为它们可以将一个数据点分配给多个聚类。当你执行GMM聚类时,得分是后验概率。有关使用GMM的软集群的示例,请参见用软聚类方法聚类高斯混合数据

GMM集群可以容纳具有不同大小和内部相关结构的集群。因此,在某些应用中,GMM聚类可能比k——集群。与许多聚类方法一样,GMM聚类要求您在拟合模型之前指定聚类的数量。集群的数量指定了GMM中组件的数量。

对于gmm,请遵循以下最佳实践:

  • 考虑组件协方差结构。你可以指定对角或全协方差矩阵,以及是否所有的分量都有相同的协方差矩阵。

  • 指定初始条件。期望最大化(EM)算法与GMM算法相吻合。就像在k-均值聚类算法,EM对初始条件敏感,有可能收敛到局部最优。可以为参数指定自己的初始值、为数据点指定初始群集分配或让它们被随机选择,或指定使用k——+ +算法

  • 实现正规化。例如,如果您有比数据点更多的预测器,那么您可以规范化估计稳定性。

用不同协方差选项和初始条件拟合GMM

这个示例探讨了在执行GMM集群时为协方差结构和初始条件指定不同选项的影响。

载入费雪的虹膜数据集。考虑对萼片测量值进行聚类,并使用萼片测量值在二维中可视化数据。

负载fisheriris;X =量(:,1:2);(氮、磷)= (X)大小;情节(X (: 1) X (:, 2),“。”“MarkerSize”15);标题(Fisher' s Iris数据集);包含(“花萼长度(厘米)”);ylabel (萼片宽(cm)的);

图中包含一个轴对象。标题为Fisher's Iris Data Set的axes对象包含一个类型为line的对象。

组件的数量k在一个GMM中决定了亚种群或集群的数量。在这个图中,很难确定两个、三个或者更多的高斯分量是合适的。GMM的复杂性随着k增加。

指定不同的协方差结构选项

每个高斯分量都有一个协方差矩阵。几何上,协方差结构决定了在聚类上绘制的置信椭球的形状。您可以指定所有分量的协方差矩阵是对角的还是满的,以及所有分量是否具有相同的协方差矩阵。每一种规格组合决定了椭球的形状和方向。

为EM算法指定三个GMM分量和1000次最大迭代。为了重现性,设置随机种子。

提高(3);k = 3;% GMM组件数量选择= statset (“麦克斯特”, 1000);

指定协方差结构选项。

σ= {“对角线”“全部”};协方差矩阵类型的选项nSigma =元素个数(σ);SharedCovariance ={真,假};相同或非相同协方差矩阵的指标SCtext = {“真正的”“假”};nSC =元素个数(SharedCovariance);

创建一个二维网格,覆盖由极端测量值组成的平面。稍后您将使用这个网格在集群上绘制置信椭球。

d = 500;%网格长度x1 = linspace(min(X(:,1))-2, max(X(:,1))+2, d);x2 = linspace(min(X(:,2))-2, max(X(:,2))+2, d);[x1grid, x2grid] = meshgrid (x1, x2);X0 = [x1grid(:) x2grid(:)];

指定以下:

  • 对于协方差结构选项的所有组合,适合具有三个组成部分的GMM。

  • 使用安装的GMM来聚类2-D网格。

  • 获取为每个置信区域指定99%概率阈值的分数。这个规格决定了椭球的长轴和短轴的长度。

  • 每个椭球使用相似的颜色作为它的簇。

阈值=√chi2inv (0.99, 2));数= 1;我= 1:nSigmaj = 1: cross (X,k, n)“CovarianceType”σ{我},...“SharedCovariance”, SharedCovariance {j},“选项”、选择);%安装GMMclusterX =集群(gmfit X);%集群指数mahalDist =泰姬陵(gmfit, X0);%从每个网格点到每个GMM分量的距离%在每个GMM组件上画椭球,并显示聚类结果。次要情节(2,2,数);h1 = gscatter (X (: 1), X (:, 2), clusterX);持有m = 1:k idx = mahalDist(:,m)<=threshold;颜色= h1(m).颜色*0.75 - 0.5*(h1(m))。颜色- 1);h2 =情节(X0 (idx, 1), X0 (idx, 2),“。”“颜色”、颜色、“MarkerSize”1);uistack (h2,“底”);结束情节(gmfit.mu (: 1) gmfit.mu (:, 2),“kx”“线宽”2,“MarkerSize”10)标题(sprintf ('Sigma是%s\nSharedCovariance = %s'SCtextσ{我},{j}),“字形大小”8)传说(h1, {' 1 '' 2 '“3”})举行Count = Count + 1;结束结束

图中包含4个轴对象。标题为Sigma的轴对象1是对角线SharedCovariance = true包含7个类型为line的对象。这些对象代表1 2 3。标题为Sigma的轴对象2是对角线SharedCovariance = false包含7个类型为line的对象。这些对象代表1 2 3。标题为Sigma的轴对象3的SharedCovariance = true包含7个类型为line的对象。这些对象代表1 2 3。标题为Sigma的轴对象4 SharedCovariance = false包含7个类型为line的对象。这些对象代表1 2 3。

置信区域的概率阈值决定了长轴和短轴的长度,协方差类型决定了轴的方向。注意以下关于协方差矩阵的选项:

  • 对角协方差矩阵表明预测因子是不相关的。椭圆的长轴和短轴与椭圆平行或垂直xy轴。该规范将参数总数增加 p ,但比完整的协方差规范更简洁。

  • 完整的协方差矩阵允许相关的预测器,对椭圆相对的方向没有限制xy轴。每个组件将参数总数增加 p p + 1 / 2 ,而是捕捉预测器之间的相关性结构。这种规格可能导致过拟合。

  • 共享的协方差矩阵表示所有组件具有相同的协方差矩阵。所有的椭圆大小相同,方向相同。这个规范比非共享规范更简洁,因为参数的总数只增加一个组件的协方差参数的数量。

  • 非共享的协方差矩阵表示每个分量都有自己的协方差矩阵。所有椭圆的大小和方向可能不同。该规范将参数的数量增加为k乘以组件的协方差参数的数量,但可以捕获组件之间的协方差差异。

这个数字也表明集群并不总是保持集群秩序。如果您群集几个适合gmdistribution模型,集群可以为类似的组件分配不同的集群标签。

指定不同的初始条件

对数据拟合GMM的算法对初始条件很敏感。为了说明这一敏感性,拟合如下四种不同的gmm:

  1. 对于第一个GMM,将大部分数据点分配给第一个集群。

  2. 对于第二个GMM,随机分配数据点到集群。

  3. 对于第三个GMM,对数据点进行另一次随机分配到集群。

  4. 对于第四个GMM,使用k-means++获取初始集群中心。

initialCond1 = [(n-8, 1);[2;2;2;2);[3;3;3;3]];%第一次GMMinitialCond2 = randsample (1: k, n,真的);%第二次GMMinitialCond3 = randsample (1: k, n,真的);%第三届GMMinitialCond4 =“+”%第四届GMMcluster0 = {initialCond1;initialCond2;initialCond3;initialCond4};

在所有情况下,使用k= 3个分量,未共享和完整的协方差矩阵,相同的初始混合比例,相同的初始协方差矩阵。为了稳定,当你尝试不同的初值集时,增加EM算法的迭代次数。同时,在星团上画出自信椭球。

聚合=南(4,1);j = 1:4 gmfit = fitgmdist(X,k,“CovarianceType”“全部”...“SharedCovariance”假的,“开始”, cluster0 {j},...“选项”、选择);clusterX =集群(gmfit X);%集群指数mahalDist =泰姬陵(gmfit, X0);%从每个网格点到每个GMM分量的距离%在每个GMM组件上画椭球,并显示聚类结果。次要情节(2,2,j);h1 = gscatter (X (: 1), X (:, 2), clusterX);%从每个网格点到每个GMM分量的距离持有;nK =元素个数(独特(clusterX));m = 1:nK idx = mahalDist(:,m)<=threshold;= h1(m).Color*0.75 + -0.5*(h1(m))。颜色- 1);h2 =情节(X0 (idx, 1), X0 (idx, 2),“。”“颜色”、颜色、“MarkerSize”1);uistack (h2,“底”);结束情节(gmfit.mu (: 1) gmfit.mu (:, 2),“kx”“线宽”2,“MarkerSize”10)传说(h1, {' 1 '' 2 '“3”});持有聚合(j) = gmfit.Converged;收敛指标结束

图中包含4个轴对象。坐标轴对象1包含7个类型为line的对象。这些对象代表1 2 3。axis对象2包含7个类型为line的对象。这些对象代表1 2 3。坐标轴对象3包含7个类型为line的对象。这些对象代表1 2 3。axis对象4包含7个类型为line的对象。这些对象代表1 2 3。

总和(聚合)
ans = 4

所有算法融合。对数据点的每次初始群集分配将导致一个不同的、拟合的群集分配。您可以为名称-值对参数指定一个正整数复制,以指定的次数运行算法。随后,fitgmdist选择产生最大可能性的匹配。

什么时候调整

有时,在EM算法的迭代过程中,拟合的协方差矩阵可能会变得病态,这意味着可能性正逃向无穷。如果存在以下一个或多个条件,就会发生此问题:

  • 预测因素比数据点多。

  • 你指定的配件太多了。

  • 变量是高度相关的。

要克服这个问题,可以使用“RegularizationValue”名称-值对的论点。fitgmdist将这个数字加到所有协方差矩阵的对角元素上,以确保所有矩阵都是正定的。正则化可以降低极大似然值。

模型符合统计数据

在大多数应用程序中,组件的数量k适当的协方差结构Σ是未知的。调优GMM的一种方法是比较信息标准。赤池信息准则(AIC)和贝叶斯信息准则(BIC)是两种流行的信息准则。

AIC和BIC都采用最优化的负对数似然,然后用模型中的参数数量(模型复杂性)惩罚它。然而,BIC对复杂性的惩罚比AIC更严厉。因此,AIC倾向于选择可能过拟合的更复杂的模型,而BIC倾向于选择可能过拟合的更简单的模型。一个好的实践是在评估模型时同时考虑这两个标准。AIC或BIC值越低,拟合模型越好。同时,确保你的选择k协方差矩阵结构适合你的应用。fitgmdist存储设备的AIC和BICgmdistribution在属性中建模对象另类投资会议BIC.您可以使用点符号来访问这些属性。有关如何选择适当参数的示例,请参见调谐高斯混合模型

另请参阅

||

相关的话题