我正在研究具有 5K 记录和 60 个特征的二进制分类问题。
通过特征选择,我将其缩小到 14 个特征。
在现有文献中,我看到有 5 个众所周知的特征。
我开始我的项目的目的是找到可以帮助提高模型预测能力的新功能
但是,我看到,对于众所周知的特征(文献中报道),它产生的 AUC 为 84-85,而我的所有 14 个特征将其降低到 82-83。
所以我尝试了手动添加和删除,发现如果我只添加一个功能(比如说magic feature),它会增加AUC to 85-86.
我看到 AUC 有 1 个点的差异。
1)为模型添加一些信息而感到高兴是否有用?
2)或者我看AUC是不是衡量模型性能的正确方法?
3)这是否意味着我根据不同的特征选择/遗传算法选择的其他新特征(14 个中的 9 个)没有那么有用?因为我的遗传算法返回了 14 个特征,所以我假设这是最好的子集,但通过我之前的实验,我知道该模型在具有 5 个特征时具有更好的性能。这里有什么建议吗?我能做些什么?
4)我目前正在使用train和test拆分作为我的训练和测试数据。我申请10 fold cv了我的数据。我应该在这里做些不同的事情吗?
5)如果我添加大约 16-17 个功能,我会看到,AUC is increased to 87但这不能过度拟合,对吧?因为如果它过度拟合,我不应该看到AUC as97-100 or just100 ? I know we haveoccam razor 的原理to keep the model parsimonius but in this case, just having 16-17 features in model is not too complex or heavy. Am I right? Because it's increasing theAUC`。对此有何建议?