![]() |
1
15
我假设你的Keras模型是某种神经网络。对于神经网络,通常很难看出哪些输入特征是相关的,哪些是不相关的。这是因为每个输入特征都有多个与其链接的系数,每个系数对应于第一个隐藏层的一个节点。添加额外的隐藏层使得确定输入特征对最终预测的影响有多大变得更加复杂。 另一方面,对于线性模型来说,这非常简单,因为每个特征x\u i都有相应的权重/系数w\u i,其大小直接决定了它在预测中的影响有多大(当然假设特征是按比例缩放的)。
RFE估计器(递归特征消除)假设您的预测模型具有一个属性
我的建议:
|
![]() |
2
2
建议: 在基于sklearn的算法上执行RFE算法,以观察特征重要性。最后,使用最重要的观察特征来训练基于Keras的算法。 针对您的问题: 逻辑回归不需要标准化 |
![]() |
Bushra Jabeen · 计算列中的互信息 2 年前 |
![]() |
rkraaijveld · sklearn的Coef。线性回归为无 2 年前 |
![]() |
Sherwin R · 随机森林预测错误的输出形状 3 年前 |
![]() |
Gijo george · 如何识别段落中每个句子的情绪 3 年前 |
![]() |
Test · 安装Scikit Learn Big Sur M1 3 年前 |
![]() |
Rich · 我可以简化零系数的Lasso Lars运行时吗? 3 年前 |
![]() |
Medo · 是否可以将3D图像转换为一个矢量? 6 年前 |