彻底搞懂感受野的含义与计算

极市平台

共 4448字,需浏览 9分钟

 ·

2020-10-12 06:52

↑ 点击蓝字 关注极市平台

作者丨shine-lee
来源丨https://www.cnblogs.com/shine-lee/p/12069176.html
编辑丨极市平台

极市导读

 

本文解释了感受野的概念,并举出了感受野大小及中心的计算公式,是一篇很好的入门文章。>>加入极市CV技术交流群,走在计算机视觉的最前沿


什么是感受野


The receptive field is defined as the region in the input space that a particular CNN’s feature is looking at (i.e. be affected by).
—— A guide to receptive field arithmetic for Convolutional Neural Networks
感受野(Receptive Field),指的是神经网络中神经元“看到的”输入区域,在卷积神经网络中,feature map上某个元素的计算受输入图像上某个区域的影响,这个区域即该元素的感受野。
卷积神经网络中,越深层的神经元看到的输入区域越大,如下图所示,kernel size 均为3×3,stride均为1,绿色标记的是Layer2每个神经元看到的区域,黄色标记的是Layer3 看到的区域,具体地,Layer2每个神经元可看到Layer1上3×3 大小的区域,Layer3 每个神经元看到Layer2 上3×3 大小的区域,该区域可以又看到Layer1上5×5 大小的区域。

https://www.researchgate.net/publication/316950618_Maritime_Semantic_Labeling_of_Optical_Remote_Sens

所以,感受野是个相对概念,某层feature map上的元素看到前面不同层上的区域范围是不同的,通常在不特殊指定的情况下,感受野指的是看到输入图像上的区域。
为了具体计算感受野,这里借鉴视觉系统中的概念:
receptive field=center+surround
准确计算感受野,需要回答两个子问,即视野中心在哪和视野范围多大
只有看到”合适范围的信息”才可能做出正确的判断,否则就可能“盲人摸象”或者“一览众山小”;
目标识别问题中,我们需要知道神经元看到是哪个区域,才能合理推断物体在哪以及判断是什么物体。
但是,网络架构多种多样,每层的参数配置也不尽相同,感受野具体该怎么计算?

约定

在正式计算之前,先对数学符号做如下约定:

https://medium.com/mlreview/a-guide-to-receptive-field-arithmetic-for-convolutional-neural-networks-e0f514068807
k:kernel size
p:padding size
s:stride size
Layer:用Layer表示feature map,特别地,Layer0为输入图像;
Conv:用Conv表示卷积,k、p、s为卷积层的超参数,Convl的输入和输出分别为Layerl−1和Layerl+1;
n:feature map size为n×n,这里假定height=width;
r:receptive field size为r×r,这里假定感受野为方形;
j:feature map上相邻元素间的像素距离,即将feature map上的元素与输入图像Layer0 上感受野的中心对齐后,相邻元素在输入图像上的像素距离,也可以理解为 feature map上前进1步相当于输入图像上前进多少个像素,如下图所示,feature map上前进1步,相当于输入图像上前进2个像素,j=2;

https://github.com/vdumoulin/conv_arithmetic/blob/master/gif/padding_strides.gif

start:feature map左上角元素在输入图像上的感受野中心坐标(start,start),即视野中心的坐标,在上图中,左上角绿色块感受野中心坐标为(0.5,0.5),即左上角蓝色块中心的坐标,左上角白色虚线块中心的坐标为(−0.5,−0.5);
l:l表示层,卷积层为Convl,其输入feature map为Layerl−1,输出为Layerl。
下面假定所有层均为卷积层。

感受野大小

感受野大小的计算是个递推公式。
再看上面的动图,如果feature map 上的一个元素A看到feature map Layer1 上的范围为3×3(图中绿色块),其大小等于kernel size k2,所以,A看到的感受野范围r2等价于Layer1上3×3窗口看到的Layer0 范围,据此可以建立起相邻Layer感受野的关系,如下所示,其中rl为Layerl的感受野,rl−1为 Layerl−1 的感受野,
Layerl 一个元素的感受野rl等价于Layerl−1 上k×k个感受野的叠加;
Layerl−1 上一个元素的感受野为rl−1;
Layerl−1 上连续k个元素的感受野可以看成是,第1个元素看到的感受野加上剩余k−1步扫过的范围,Layerl−1 上每前进1个元素相当于在输入图像上前进jl−1个像素,结果等于rl−1+(k−1)×jl−1
可视化如下图所示,
receptive field size
下面的问题是,jin怎么求?
Layerl 上前进1个元素相当于Layerl−1上前进sl个元素,转换成像素单位为
其中,sl为Convl的kernel在 Layerl−1 上滑动的步长,输入图像的s0=1。
根据递推公式可知,
Layerl上前进1个元素,相当于在输入图像前进了个像素,即前面所有层stride的连乘。
进一步可得,Layerl的感受野大小为:

感受野中心

感受野中心的计算也是个递推公式。
在上一节中计算得表示feature map Layerl上前进1个元素相当于在输入图像上前进的像素数目,如果将feature map上元素与感受野中心对齐,则jl为感受野中心之间的像素距离。如下图所示,

receptive field center
其中,各层的kernel size、padding、stride超参数已在图中标出,右侧图为feature map和感受野中心对齐后的结果。
相邻Layer间,感受野中心的关系为:
所有的start坐标均相对于输入图像坐标系。其中,start0=(0.5,0.5),为输入图像左上角像素的中心坐标,startl−1表示Layerl−1左上角元素的感受野中心坐标,(2kl−1−pl)为Layerl与Layerl−1感受野中心相对于Layerl−1坐标系的偏差,该偏差需折算到输入图像坐标系,其值需要乘上jl−1,即Layerl−1相邻元素间的像素距离,相乘的结果为(2kl−1−pl)∗jl−1,即感受野中心间的像素距离——相对输入图像坐标系。至此,相邻Layer间感受野中心坐标间的关系就不难得出了,这个过程可视化如下。
receptive field center calculation
知道了Layerl左上角元素的感受野中心坐标(startl,startl),通过该层相邻元素间的像素距离jl可以推算其他元素的感受野中心坐标。

小结


将感受野的相关计算小结一下:

由上面的递推公式,就可以从前向后逐层计算感受野了,代码可参见computeReceptiveField.py,在线可视化计算可参见Receptive Field Calculator。
最后,还有几点需要注意:
Layerl的感受野大小与sl、pl无关,即当前feature map元素的感受野大小与该层相邻元素间的像素距离无关;
为了简化,通常将padding size设置为kernel的半径,即p=2k−1,可得startl=startl−1,使得feature map Layerl 上(x,y)位置的元素,其感受野中心坐标为(xjl,yjl);
对于空洞卷积dilated convolution,相当于改变了卷积核的尺寸,若含有 dilation rate参数,只需将kl替换为dilation rate∗(kl−1)+1 ,dilation rate=1时为正常卷积;
对于pooling层,可将其当成特殊的卷积层,同样存在kernel size、padding、stride参数;
非线性激活层为逐元素操作,不改变感受野。
以上。

参考资料


wiki-Receptive field
wiki-Receptive Field Calculator
arXiv-Understanding the Effective Receptive Field in Deep Convolutional Neural Networks
medium-A guide to receptive field arithmetic for Convolutional Neural Networks
medium-Topic DL03: Receptive Field in CNN and the Math behind it
ppt-Convolutional Feature Maps: Elements of Efficient (and Accurate) CNN-based Object Detection
SIGAI-关于感受野的总结
Calculating Receptive Field of CNN

推荐阅读



ACCV 2020国际细粒度网络图像识别竞赛正式开赛!

添加极市小助手微信(ID : cvmart2),备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳),即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群:月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

△长按添加极市小助手

△长按关注极市平台,获取最新CV干货

觉得有用麻烦给个在看啦~  
浏览 44
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报