![]() |
1
1
我认为你的解释是正确的:他们只是试图保持与经典插值操作类似的过程,因为架构具有更好的可解释性(虽然仍然允许网络的灵活性,但仍然可以学习升迁的最佳权重)。一般来说,如果你想增加更多的非线性,你可以在这个水平之后进入任何想要的激活功能(比如relu),但就我个人而言,根据我的经验,我会说性能不会改变太多。 |
![]() |
fateme · MATLAB,神经网络 2 年前 |
![]() |
Chris · ROC公制in train(),插入符号包 6 年前 |
![]() |
Mitch · XOR神经网络收敛到0.5 6 年前 |
![]() |
Helen · Keras解释:输入层中的节点数 6 年前 |