1
2
不,激活分布显然取决于激活函数,这就是为什么基于sigmoid和relu的神经网络的初始化技术不同的原因。查看Xavier和He初始化之间的差异 in this question . 输入分布也是如此。
但是
因此,如果乙状结肠激活的激活是正态分布的,那么tanh的激活仍然是正态分布的。仅使用标度标准偏差和移动平均值。因此,相同的输入分布对tanh来说是可行的。如果希望获得相同的高斯方差,可以通过以下方式缩放输入
|
Samo PoláÄek · sigmoid和tanh的数据集值分布 6 年前 |
Paolo Milini · Python中的标准化/规范化测试数据 7 年前 |
markzzz · 是否有一个函数来检索范围内可用的不同值的数量? 7 年前 |
Alastair_V · VLAD矢量表示的功率归一化步骤 7 年前 |
2milli · 如何在Oracle表中将逗号分隔的值拆分为多行 7 年前 |
Mei Yi · 在文本视图中突出显示某些文本背景,不区分大小写 7 年前 |