![]() |
1
2
这个答案适用于通过谷歌来到这里的其他人: 扩张VS步幅:步幅使反应变小。所以你只使用一次。膨胀通过在两者之间添加零使内核变大。它将产生与跨步相同的效果,但不会使响应变小。 Keras/tf。keras示例:
与以下内容相同:
如果将自动编码器中的步幅替换为像这样的dibulation\u速率,它将起作用。(Conv2dTranspose也有Distribution\u rate,但不起作用: https://github.com/keras-team/keras/issues/8159 . 解决方法是使用跨步(编码器)和放大2D(解码器)来训练您的网络。将这些权重加载到一个更简单的编码器中,并在使用时进行扩容。) 关于池:在这种情况下不需要池,但它可以帮助消除位置偏差。另一种方法是增加翻译以获得相同的结果。取决于你的问题,你想不想这样。 完全连接:完全过时。只需使用大小相同的卷积层即可连接所有内容。这是完全相同的,但将有可能有更大的投入。 更少或更多的过滤器:我永远不知道。可视化过滤器和/或过滤器响应。如果你看到的过滤器非常相似,你习惯了很多过滤器。或者没有足够的刺激差异(辍学和数据扩充可能会有所帮助)。 |
![]() |
DPM · 将自定义掩码传递给LSTM数据以进行培训和验证 3 年前 |
![]() |
user836026 · 在pytorch中复制权重时语法无效 3 年前 |
![]() |
mad · 如何从一个定制的神经网络模型中获得逻辑和概率 3 年前 |