Feature Selection
特征选择技术可以精简掉无用的特征,以降低最终模型的复杂性,它的最终目的是得到一个简约模型,在不降低预测准确率或对预测准确率影响不大的情况下提高计算速度;
1. 过滤
- 对特征进行预处理,除去那些不太可能对模型有用处的特征
- 计算特征与相应变量之间的相关性或互信息,然后过滤掉那些在某个阈值之下的特征
- 没有考虑模型,可能无法为模型选择出正确的特征
2. 打包
- 试验特征的各个子集
3. 嵌入式
将特征选择作为模型训练过程的一部分;
- 特征选择是决策书与生俱来的功能,因为它在每个训练阶段都要选择一个特征来对树进行分割;
- 决策树
- GBM
- XGBoost
- LightGBM
- CatBoost
- RandomForest
- $L1$ 正则化可以添加到任意线性模型的训练目标中,$L1$ 正则化鼓励模型使用更少的特征,所以也称为稀疏性约束;
- LASSO