特征选择是一种降维技术,它只选择在数据建模中提供最佳预测能力的测量特征(预测变量)的子集。它在处理非常高维的数据时特别有用,或者在不希望使用所有特性进行建模时特别有用。
特征选择可用于:
- 提高a的精度机器学习算法
- 提高非常高维数据的性能
- 提高模型的可解释性
- 防止过度拟合
有几种常见的方法来选择特征:
另一种降维方法是使用特征提取或特征转换技术,将现有特征转换为新特征(预测变量),去掉描述性较差的特征。
特征变换的方法包括:
有关特征选择(包括机器学习、回归和转换)的更多信息,请参见统计和机器学习工具箱™与使用MATLAB®。