代码之家  ›  专栏  ›  技术社区  ›  Baron Yugovich

keras conv2d:过滤器与内核大小

  •  5
  • Baron Yugovich  · 技术社区  · 6 年前

    这两者有什么区别?这也将有助于在卷积网络的更一般背景下进行解释。

    另外,顺便说一下,什么是频道?换言之,请为我分解三个术语:通道vs过滤器vs内核。

    1 回复  |  直到 6 年前
        1
  •  5
  •   Dinesh    6 年前

    每个卷积层由几个卷积通道(aka)组成。深度或过滤器)。实际上,它们的数量 64,128,256, 512 等。这等于卷积层输出的通道数。另一方面,核大小是这些卷积滤波器的大小。实际上他们是 3x3, 1x1 or 5x5 是的。作为缩写,它们可以写成 1 or 3 or 5 因为它们在实践中大多是方形的。

    编辑

    下面的引语应该更清楚一些。

    Discussion on vlfeat

    假设 X 是具有大小的输入 W x H x D x N (何处) N 是批次的大小)到包含过滤器的卷积层 F (有大小 FW x FH x FD x K )在网络中。

    特征频道的数量 D 是输入的第三个维度 这里(例如,如果输入由彩色图像组成,则通常在网络的第一个输入处为3)。 过滤器数量 K 是第四维度 f . 这两个概念是紧密联系在一起的,因为如果一个层中过滤器的数量是 ,它生成一个具有k个特征通道的输出。所以下一层的输入将 特色频道。

    这个 FW x FH 上面是你要找的过滤器尺寸。

    补充

    你应该熟悉 filters 是的。您可以认为每个过滤器负责从原始图像中提取某种类型的特征。cnns试图学习这样的过滤器,即在cnns中参数化的过滤器是在cnns的训练中学习的。这些是CNN的过滤器。将conv2d中的每个过滤器应用于每个输入通道,并将它们组合起来以获得输出通道。所以,滤波器和输出通道的数目是相同的。