为什么在初始网络中特征图的空间尺寸减小而内核尺寸变大?

时间:2018-07-05 12:02:29

标签: machine-learning deep-learning computer-vision classification conv-neural-network

在诸如inception-v3和inception-v4之类的inception网络中,较低层(例如3 * 3)的内核大小较小,但是在较高层中,内核大小似乎较大,例如5 * 5,7 * 7,尽管以后可能将它们分解为n * 1&1 * n。但是随着网络的深入,特征图的空间尺寸减小,这两者之间是否存在任何关系?

ps:我的问题是,为什么较低层的内核大小似乎比较小(不超过3 * 3),而较高层的内核大小却像7 * 7一样(更确切地说,在中间层)。特征图的空间大小和conv内核的空间空间大小之间是否存在任何关系?以inception v3为例,当特征图的空间大小在前几层中大于35时在网络中,最大的内核大小为5 * 5,但是当空间大小变为17时,将使用7 * 7之类的内核大小。

任何帮助将不胜感激。

1 个答案:

答案 0 :(得分:0)

通常,当您深​​入网络时:-

  1. 减少要素图的空间大小以定位对象并 以减少计算成本。
  2. 过滤器/内核的数量     通常会增加,因为初始层代表通用特征,     而更深的层代表更详细的功能。以来     初始层仅学习数据中的原始规律性,您可以     那里不需要大量的过滤器。但是随你去     深入,您应该尝试研究尽可能多的细节,因此     过滤器/内核数量的增加。因此增加了     更深层的过滤器数量增加了代表性     网络的力量。

在初始模块中,在每一层,都使用多个大小(1x1、3x3、5x5)的内核进行计算,并将生成的特征图进行级联并传递到下一层。