卷积神经网络感受野计算指南

共 6105字,需浏览 13分钟

 ·

2022-07-26 21:37

点击上方小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

作者:Dang Ha The Hien

编译:ronghuaiyang

导读

之前分享过一篇文章,是关于感受野的,今天这篇文章是专门讲解如何计算感受野的,可以和之前那篇结合起来看,之前那篇文章我也再推送一次给大家。

感受野可能是卷积神经网络(CNNs)中最重要的概念之一,值得更多的关注。所有最先进的物体识别方法都围绕这一思想设计它们的模型体系结构。然而,据我所知,目前还没有一个完整的指南,如何计算和可视化感受野的CNN信息。这篇文章通过介绍一种新的方法来填补这一空白,这种方法可以在CNN中可视化特征图,公开感受野信息,同时提供一个完整的感受野计算,可以用于任何CNN架构。我还实现了一个简单的程序来演示计算,这样任何人都可以开始计算感受野,并更好地了解他们正在使用的CNN的架构。

为了理解这篇文章,我假设您熟悉CNN的概念,特别是卷积和池操作。你可以通过阅读论文"A guide to convolution arithmetic for deep learning"来更新你的CNN知识。如果你对CNNs有一定的了解,这篇文章不会占用你超过半个小时。这篇文章实际上是受到那篇论文的启发,并使用了类似的符号。
固定尺寸的CNN特征图可视化

感受野 定义为输入空间中某个CNN特性正在查看(即受其影响)的区域。特征的感受野可以通过其中心位置大小来描述。然而,并不是感受野中的所有像素对于其对应的CNN特征都是同等重要的。在感受野内,像素越靠近中心,对输出特征的计算贡献越大。这意味着一个特征不仅关注输入图像中的一个特定区域(即它的感受野),而且指数级地更加关注该区域的中心。这一重要见解将在另一篇博客文章中进一步解释。目前,我们的重点是计算特定感受野的位置和大小。

图1显示了一些感受野示例。将C与kernel size k = 3x3, padding size p = 1x1, stride s = 2x2 *在输入map 5x5上进行卷积,得到输出feature map 3x3(绿色map)。在3x3 feature map上应用相同的卷积,得到2x2feature map(橙色map)。每个维度中输出特性的数量可以使用以下公式计算,具体说明如下。

注意,在本文中,为了简化,我假设CNN架构是对称的,而输入图像是正方形的。所以这两个维度对于所有变量都有相同的值。如果CNN架构或输入图像是非对称的,则可以分别计算每个维度的feature map属性。

图1:两种可视化CNN feature maps的方法。在所有情况下,我们都使用C与内核大小k = 3x3,填充大小p = 1x1,步幅s = 2x2的卷积。(顶行)在5x5的输入图上应用卷积,得到3x3的绿色特征图。(下一行)在绿色特征图的顶部应用相同的卷积,生成2x2橙色特征图。(左栏)CNN特征图的常用可视化方法。只看特征图,我们不知道特征在哪里(它的感受野的中心位置),以及这个区域有多大(它的感受野大小)。在深度CNN中跟踪感受野信息是不可能的。(右栏)固定大小的CNN feature map visualization,其中每个feature map的大小是固定的,feature位于其感受野的中心。

图1的左列显示了一种可视化CNN feature map的常用方法。在这个可视化过程中,尽管通过查看特征图,我们知道它包含了多少特征。不可能知道每个特征观察的位置在哪里(它的感受野的中心位置),以及这个区域有多大(它的感受野大小)。图1的右栏显示了固定尺寸的CNN可视化,它通过保持所有feature map的大小不变并等于输入map来解决这个问题。每个特征都被标记在其感受野位置的中心。因为feature map中的所有特征都具有相同大小的感受野,所以我们可以简单地在一个特征周围画一个包围框来表示它的感受野大小。我们不需要将这个边界框一直映射到输入层,因为feature map已经在输入层用相同大小来表示了。图2显示了另一个使用相同卷积的例子,但应用于更大的输入映射- 7x7。我们可以用3D(左)或2D(右)绘制固定大小的CNN feature maps。注意,图2中感受野的大小增长得非常快,以至于第二个特性层的中心特征的感受野几乎覆盖了整个输入map。这是一个重要的见解,它被用来改进一个深度CNN的设计。

图2:另一个固定大小的CNN feature map表示。同样的卷积C应用于i = 7x7的更大的输入映射。我围绕中心特征绘制了感受野边界框,并删除了填充网格以获得更清晰的视图。固定大小的CNN feature map可以显示为3D(左)或2D(右)。

感受野计算

要计算每一层的感受野,除了每个维度的特征数n外,还需要跟踪每一层的一些额外信息。其中包括当前感受野大小r,两个相邻特征(或跳转)之间的距离j,和左上角特征(第一个特征)的中心坐标start 。注意,特征的中心坐标被定义为其感受野的中心坐标,如上面的固定大小的CNN feature map所示。当与kernel size k, padding size p, stride size s进行卷积时,输出层的属性可以通过以下公式计算:

  • 第一个方程根据输入特征个数和卷积性质计算输出特征个数。这与上面中给出的方程相同。

  • 第二个方程计算输出特征图中的jump,它等于输入映射中的jump乘以应用卷积时跳过的输入特征的数量(步长)。

  • 第三个方程计算输出feature map的接感受野大小,等于k 个输入特征所覆盖的区域(k-1)*j_in,加上边界上输入feature的感受野所覆盖的额外区域。

  • 第四个方程计算第一个输出特征的感受野的中心位置,等于第一个输入特征的中心位置 + 第一个输入特征的中心位置到第一个卷积 (k - 1) / 2 * j_in的距离 - padding空间p * j_in。注意,在这两种情况下,我们都需要将输入feature map的jump相乘,以得到实际的距离/空间。

第一层是输入层,它总是有n =图像大小r = 1, j = 1, start = 0.5。注意,在图3中,我使用的坐标系中,输入层的第一个特征的中心位于0.5。通过递归应用上述四个方程,我们可以计算出CNN中所有feature map的感受野信息。图3显示了这些方程如何工作的示例。

图3:对图1中的示例应用感受野计算。第一行显示了符号和一般方程,第二行和最后一行显示了将其应用于给定输入层信息的输出层感受野的计算过程。

我还创建了一个小型python程序,它计算给定CNN体系结构中所有层的感受野信息。它还允许你输入任何特征图的名称和该特征图中特征的索引,并返回相应感受野的大小和位置。下图显示了使用AlexNet时的输出示例。代码在本文末尾提供。

  1. # [filter size, stride, padding]

  2. #Assume the two dimensions are the same

  3. #Each kernel requires the following parameters:

  4. # - k_i: kernel size

  5. # - s_i: stride

  6. # - p_i: padding (if padding is uneven, right padding will higher than left padding; "SAME" option in tensorflow)

  7. #

  8. #Each layer i requires the following parameters to be fully represented:

  9. # - n_i: number of feature (data layer has n_1 = imagesize )

  10. # - j_i: distance (projected to image pixel distance) between center of two adjacent features

  11. # - r_i: receptive field of a feature in layer i

  12. # - start_i: position of the first feature's receptive field in layer i (idx start from 0, negative means the center fall into padding)


  13. import math

  14. convnet = [[11,4,0],[3,2,0],[5,1,2],[3,2,0],[3,1,1],[3,1,1],[3,1,1],[3,2,0],[6,1,0], [1, 1, 0]]

  15. layer_names = ['conv1','pool1','conv2','pool2','conv3','conv4','conv5','pool5','fc6-conv', 'fc7-conv']

  16. imsize = 227


  17. def outFromIn(conv, layerIn):

  18. n_in = layerIn[0]

  19. j_in = layerIn[1]

  20. r_in = layerIn[2]

  21. start_in = layerIn[3]

  22. k = conv[0]

  23. s = conv[1]

  24. p = conv[2]


  25. n_out = math.floor((n_in - k + 2*p)/s) + 1

  26. actualP = (n_out-1)*s - n_in + k

  27. pR = math.ceil(actualP/2)

  28. pL = math.floor(actualP/2)


  29. j_out = j_in * s

  30. r_out = r_in + (k - 1)*j_in

  31. start_out = start_in + ((k-1)/2 - pL)*j_in

  32. return n_out, j_out, r_out, start_out


  33. def printLayer(layer, layer_name):

  34. print(layer_name + ":")

  35. print("\t n features: %s \n \t jump: %s \n \t receptive size: %s \t start: %s " % (layer[0], layer[1], layer[2], layer[3]))


  36. layerInfos = []

  37. if __name__ == '__main__':

  38. #first layer is the data layer (image) with n_0 = image size; j_0 = 1; r_0 = 1; and start_0 = 0.5

  39. print ("-------Net summary------")

  40. currentLayer = [imsize, 1, 1, 0.5]

  41. printLayer(currentLayer, "input image")

  42. for i in range(len(convnet)):

  43. currentLayer = outFromIn(convnet[i], currentLayer)

  44. layerInfos.append(currentLayer)

  45. printLayer(currentLayer, layer_names[i])

  46. print ("------------------------")

  47. layer_name = raw_input ("Layer name where the feature in: ")

  48. layer_idx = layer_names.index(layer_name)

  49. idx_x = int(raw_input ("index of the feature in x dimension (from 0)"))

  50. idx_y = int(raw_input ("index of the feature in y dimension (from 0)"))


  51. n = layerInfos[layer_idx][0]

  52. j = layerInfos[layer_idx][1]

  53. r = layerInfos[layer_idx][2]

  54. start = layerInfos[layer_idx][3]

  55. assert(idx_x < n)

  56. assert(idx_y < n)


  57. print ("receptive field: (%s, %s)" % (r, r))

  58. print ("center: (%s, %s)" % (start+idx_x*j, start+idx_y*j))

END

英文原文:https://medium.com/mlreview/a-guide-to-receptive-field-arithmetic-for-convolutional-neural-networks-e0f514068807

好消息!

小白学视觉知识星球

开始面向外开放啦👇👇👇




下载1:OpenCV-Contrib扩展模块中文版教程
在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲
小白学视觉公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲
小白学视觉公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群


欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~


浏览 35
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报