特征选择是一种降维技术,它只选择测量特征(预测变量)的子集,这些特征在数据建模中提供了最佳的预测能力。当处理非常高维的数据或使用所有不需要的特性建模时,它特别有用。
特征选择可用于:
- 提高a的精度机器学习算法
- 提高高维数据的性能
- 提高模型的可解释性
- 防止过度拟合
有几种常见的特征选择方法:
另一种降维方法是使用特征提取或特征转换技术,将现有的特征转换为新的特征(预测变量),减少较少的描述性特征。
特征转换的方法包括:
有关特征选择的更多信息,包括机器学习、回归和转换,请参见统计和机器学习工具箱™使用MATLAB®。