主要内容

邻域分量分析(NCA)功能选择

邻域分量分析(NCA)是一种非参数方法,用于选择具有最大化回归和分类算法的预测准确性的目标。统计和机器学习工具箱™功能FSCNCAFSRNCA.使用正则化执行NCA特征选择,以了解要最小化目标函数的特征权重,以测量培训数据的平均休假分类或回归损失。

NCA分类功能选择

考虑一个包含培训集的多级分类问题N观察结果:

S. = { X 一世 y 一世 一世 = 1 2 ...... N }

在哪里 X 一世 P. 特征向量是特征向量, y 一世 { 1 2 ...... C } 是班级标签,和C是课程的数量。目的是学习分类器 F P. { 1 2 ...... C } 接受特征向量并进行预测 F X 对于真正的标签 y X

考虑一个随机分类器:

  • 随机挑选一点, 裁判 X , 从 S. 作为“参考点” X

  • 标签 X 使用参考点的标签 裁判 X

该方案类似于1-nn分类器的方案,其中参考点被选择为新点的最接近邻居 X 。在NCA中,随机选择参考点,并且所有点 S. 有一些被选为参考点的概率。概率 P. 裁判 X = X j | S. 那一点 X j 被选中 S. 作为参考点 X 如果是较高 X j 更近 X 通过距离功能来测量 D. W. , 在哪里

D. W. X 一世 X j = σ. R. = 1 P. W. R. 2 | X 一世 R. - X j R. |

W. R. 是特征权重。假使,假设

P. 裁判 X = X j | S. α. K. D. W. X X j

在哪里 K. 是一些内核或类似性函数,何时假设大的值 D. W. X X j 是小。假设它是

K. Z. = exp. - Z. σ.

如图所示[1]。参考点 X 被选自 S. ,所以总和 P. 裁判 X = X j | S. 对所有人j必须等于1.因此,可以写入

P. 裁判 X = X j | S. = K. D. W. X X j σ. j = 1 N K. D. W. X X j

现在考虑这种随机分类器的休留一次应用,即预测标签 X 一世 使用数据 S. - 一世 ,培训集 S. 排除这一点 X 一世 y 一世 。点的概率 X j 被挑选为参考点 X 一世

P. 一世 j = P. 裁判 X 一世 = X j | S. - 一世 = K. D. W. X 一世 X j σ. j = 1 j 一世 N K. D. W. X 一世 X j

正确分类的平均休假概率是概率 P. 一世 随机分类器正确分类观察一世使用 S. - 一世

P. 一世 = σ. j = 1 j 一世 N P. 裁判 X 一世 = X j | S. - 一世 一世 y 一世 = y j = σ. j = 1 j 一世 N P. 一世 j y 一世 j

在哪里

y 一世 j = 一世 y 一世 = y j = { 1 如果 y 一世 = y j 0. 除此以外

使用随机分类器的正确分类的平均休假概率可以写入

F W. = 1 N σ. 一世 = 1 N P. 一世

右手边 F W. 取决于重量载体 W. 。邻居分量分析的目标是最大化 F W. 关于 W. FSCNCA使用正常的目标函数如介绍[1]

F W. = 1 N σ. 一世 = 1 N P. 一世 - λ. σ. R. = 1 P. W. R. 2 = 1 N σ. 一世 = 1 N [ σ. j = 1 j 一世 N P. 一世 j y 一世 j - λ. σ. R. = 1 P. W. R. 2 ] } F 一世 W. = 1 N σ. 一世 = 1 N F 一世 W.

在哪里 λ. 是正则化参数。正则化术语驱动了许多权重 W. 到0。

选择内核参数后 σ. P. 一世 j 作为1,找到体重矢量 W. 可以表示为给定的以下最小化问题 λ.

W. ^ = argmin W. F W. = argmin W. 1 N σ. 一世 = 1 N F 一世 W.

在哪里FW.)= -FW.F一世W.)= -F一世W.

注意

1 N σ. 一世 = 1 N σ. j = 1 j 一世 N P. 一世 j = 1

如果您将常量添加到目标函数,则最小值的参数不会更改。因此,您可以通过添加常量1来重写目标函数。

W. ^ = argmin W. { 1 + F W. } = argmin W. { 1 N σ. 一世 = 1 N σ. j = 1 j 一世 N P. 一世 j - 1 N σ. 一世 = 1 N σ. j = 1 j 一世 N P. 一世 j y 一世 j + λ. σ. R. = 1 P. W. R. 2 } = argmin W. { 1 N σ. 一世 = 1 N σ. j = 1 j 一世 N P. 一世 j 1 - y 一世 j + λ. σ. R. = 1 P. W. R. 2 } = argmin W. { 1 N σ. 一世 = 1 N σ. j = 1 j 一世 N P. 一世 j L. y 一世 y j + λ. σ. R. = 1 P. W. R. 2 }

损失函数定义为

L. y 一世 y j = { 1 如果 y 一世 y j 0. 除此以外

最小值的参数是最小化分类误差的重量载体。您可以使用使用的自定义丢失功能损失呼叫中的名称值对参数FSCNCA

NCA的回归特征选择

FSRNCA.函数对回归修改的NCA功能选择。给予N观察

S. = { X 一世 y 一世 一世 = 1 2 ...... N }

与分类问题的唯一区别是响应值 y 一世 是连续的。在这种情况下,目的是预测响应 y 鉴于培训集 S.

考虑一个随机回归模型:

  • 随机挑选一个点( 裁判 X ) 从 S. 作为“参考点” X

  • 设置响应值 X 等于参考点的响应值 裁判 X

再次,概率 P. 裁判 X = X j | S. 那一点 X j 被选中 S. 作为参考点 X

P. 裁判 X = X j | S. = K. D. W. X X j σ. j = 1 N K. D. W. X X j

现在考虑这种随机回归模型的休假应用,即预测响应 X 一世 使用数据 S. - 一世 ,培训集 S. 排除这一点 X 一世 y 一世 。点的概率 X j 被挑选为参考点 X 一世

P. 一世 j = P. 裁判 X 一世 = X j | S. - 一世 = K. D. W. X 一世 X j σ. j = 1 j 一世 N K. D. W. X 一世 X j

y ^ 一世 是随机回归模型预测和的响应值 y 一世 是实际的响应 X 一世 。然后让 L. 2 是一个衡量分歧的损失职能 y ^ 一世 y 一世 。然后,平均值 L. y 一世 y ^ 一世

L. 一世 = E. L. y 一世 y ^ 一世 | S. - 一世 = σ. j = 1 j 一世 N P. 一世 j L. y 一世 y j

添加正则化术语后,最小化的目标函数是:

F W. = 1 N σ. 一世 = 1 N L. 一世 + λ. σ. R. = 1 P. W. R. 2

默认损耗功能 L. y 一世 y j 对于回归的NCA是平均绝对偏差,但您可以使用使用的其他损失函数,包括自定义函数损失呼叫中的名称值对参数FSRNCA.

标准化的影响

正则化术语导出无关预测器的权重为零。在NCA进行分类或回归的目标函数中,只有一个正则化参数 λ. 适用于所有重量。该事实要求重量的大小相互彼此相当。当特征向量 X 一世 S. 在不同的尺度中,这可能会导致不同尺度的权重,而不是有意义的。为避免这种情况,在应用NCA之前标准化预测器以具有零均值和单位标准偏差。您可以使用该预测器标准化'标准化',真实呼叫中的名称值对参数FSCNCA或者FSRNCA.

选择正则化参数值

通常需要通过计算独立测试集上的随机NCA分类器或回归模型的准确性来选择正则化参数的值。如果使用交叉验证而不是单个测试集,请选择 λ. 值最小化交叉验证折叠的平均损失。对于例子,见调整正常化参数以检测使用NCA进行分类的功能回归NCA中的曲调正则化参数

参考

[1]杨,W.,K. Wang,W. Zuo。“高维数据的邻域组件功能选择。”电脑杂志。卷。7,1月1日,2012年1月。

也可以看看

|||

相关话题