深度学习中的重参数机制总结和实现

共 20089字,需浏览 41分钟

 ·

2021-07-04 21:43

↑ 点击蓝字 关注极市平台

作者丨mayiwei1998
来源丨GiantPandaCV
编辑丨极市平台

极市导读

 

为了能够让更多读者进一步、深层的理解重参数的思想,本文结合代码,近几年重参数的论文进行了详细的解析。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

【写在前面】

最近拜读了丁霄汉大神的一系列重参数的论文,觉得这个思想真的很妙。能够在将所有的cost都放在训练过程中,在测试的时候能够在所有的网络参数和计算量都进行缩减。目前网上也有部分对这些论文进行了解析,为了能够让更多读者进一步、深层的理解重参数的思想,本文将会结合代码,近几年重参数的论文进行详细的解析。

个人理解,重参数其实就是在测试的时候对训练的网络结构进行压缩。比如三个并联的卷积(kernel size相同)结果的和,其实就等于用求和之后的卷积核进行一次卷积的结果。所以,在训练的时候可以用三个卷积来提高模型的学习能力,但是在测试部署的时候,可以无损压缩为一次卷积,从而减少参数量和计算量。

【复现框架】

https://github.com/xmu-xiaoma666/External-Attention-pytorch

(欢迎大家star、fork该工作;如果有任何问题,也欢迎大家在issue中提出)

【先验知识】

首先向各位读者介绍一下卷积的一些基本性质,这几篇论文所提出的重参数操作,都是基于卷积的这几个性质。

一个普通的卷积操作可以被定义成下面的公式:

其中,  为卷积操作,  为输出特征,  为输入特征,  为卷积核,  为偏置项,  表示广播后 的偏置项。

卷积操作具有以下两个性质:

1)同质性(homogeneity)

这个性质的意思是,一个常数与卷积核相乘之后的结果与特征进行卷积=一个常数乘上卷积之后的结果。

2)可加性(additivity)

这个性质的意思是,两个并联的卷积结果相加,等于将这两个卷积核相加之后之后在进行卷积

1.ICCV2019-ACNet

1.1. 论文地址

ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks

论文地址:https://arxiv.org/abs/1908.03930

1.2. 网络框架

1.3. 原理解释

这篇文章做的主要工作如“网络框架”中的展示的那样:将并联的三个卷积(1x3、3x1、3x3)转换成一个卷积(3x3)。

首先,考虑不带BatchNorm的情况:

卷积操作如下:

BatchNorm操作如下:

将卷积带入到BatchNorm就如:

化简得到:

因此新卷积核的weight和bias为:

最后,考虑多分支的带BN的结构融合:

第一步,我们将BN层的参数融合到卷积核中

第二步,将BN层的参数融合到卷积核之后,原来带BN层的结构就变成了不带BN层的结构,我们将三个新卷积核相加之后,就得到了融合的卷积核。

1.4. 代码调用


    
from rep.acnet import ACNetimport torchfrom torch import nn
input=torch.randn(50,512,49,49)acnet=ACNet(512,512)acnet.eval()out=acnet(input)acnet._switch_to_deploy()out2=acnet(input)print('difference:')print(((out2-out)**2).sum())

2. CVPR2021-RepVGG

2.1. 论文地址

RepVGG: Making VGG-style ConvNets Great Again

论文地址:https://arxiv.org/abs/2101.03697

2.2. 网络框架

2.3. 原理解释

这篇论文是的核心是将并联的带BN的3x3卷积核,1x1卷积核和残差结构转换为一个3x3的卷积核。

首先,带BN的1x1卷积核和带BN的3x3卷积核融合成一个3x3的卷积核,这个操作和第一篇文章ACNet的转换方式非常相似,就是将1x1 的卷积核padding成3x3后,在进行和ACNet相同的操作。

现在的问题是,怎么把残差结构也变成3x3的卷积。残差结构可以其实就是一个value为1的1x1的Depthwise卷积。如果能把Depthwise卷积转换成正常的卷积,那么这个问题也就迎刃而解了。下面这张图形象的展示了如果把Depthwise卷积转换成正常卷积:

(来自:https://zhuanlan.zhihu.com/p/352239591

其实就是将对应需要操作的通道赋值为1,其他赋值为0。

输入通道为c,输出通道为c,把这里的参数矩阵比作cxc的矩阵,那么深度可分离矩阵就是一个单位矩阵(对角位置全部为1,其他全部为0)

(来自:https://zhuanlan.zhihu.com/p/352239591)

这样一来,残差结构也能转换成1x1的卷积了,然后与3x3的卷积用上面的方式进行合并,就得到了RepVGG的重参数结构

2.4. 代码调用


    
from rep.repvgg import RepBlockimport torch
input=torch.randn(50,512,49,49)repblock=RepBlock(512,512)repblock.eval()out=repblock(input)repblock._switch_to_deploy()out2=repblock(input)print('difference between vgg and repvgg')print(((out2-out)**2).sum())

3. CVPR2021-Diverse Branch Block

3.1. 论文地址

Diverse Branch Block: Building a Convolution as an Inception-like Unit

论文地址:https://arxiv.org/abs/2103.13425

3.2. 网络框架

3.3. 原理解释

像Inception一样的多分支结构可以增加模型的表达能力,提高性能,但是也会带来额外的参数和显存使用。因此,本文提出了一个方法,在训练时采用多分支的结构,在测试和部署的时候将多分支的结构模型转换成一个单一分支的模型,从而模型在测试的时候就能够“免费”享用多分支结构带来的性能提升。但是怎么把多分支结构无损压缩成一个单分支的结构呢,这就是这篇文章的贡献点所在。

3.3.1. Transform I:Conv+BN->BN

这部分的原理在ACNet的解析中已经详细解释了,代码实现如下:


    
def transI_conv_bn(conv, bn):
std = (bn.running_var + bn.eps).sqrt() gamma=bn.weight
weight=conv.weight*((gamma/std).reshape(-1, 1, 1, 1)) if(conv.bias is not None): bias=gamma/std*conv.bias-gamma/std*bn.running_mean+bn.bias else: bias=bn.bias-gamma/std*bn.running_mean return weight,bias

3.3.2. Transform II:并联Conv->Conv

这部分的原理就是【先验知识】部分的可加性,代码实现如下:


    
def transII_conv_branch(conv1, conv2):    weight=conv1.weight.data+conv2.weight.data    bias=conv1.bias.data+conv2.bias.data    return weight,bias

3.3.3 Transform III:1x1Conv + 3x3Conv->3x3Conv

1x1的卷积其实并没有在空间上对feature map进行交互操作(或者说都只是乘了相同的数),所以1x1的Conv其实就是一个全连接层。所以,本质上,我们可以直接后面接着的3x3的卷积进行这个1x1的卷积操作,得到的新的卷积核,就可以是融合之后的卷积核。(可能讲的不是非常清楚,详细解释可以参考这篇文章:https://zhuanlan.zhihu.com/p/360939086)

代码实现如下:


    
def transIII_conv_sequential(conv1, conv2):    weight=F.conv2d(conv2.weight.data,conv1.weight.data.permute(1,0,2,3))    return weight

3.3.4 Transform IV:Concat Conv->Conv

将多个卷积之后的结果进行concat,其实就是将多个卷积核权重在输出通道维度上进行拼接即可,代码实现如下:


    
def transIV_conv_concat(conv1, conv2):    print(conv1.bias.data.shape)    print(conv2.bias.data.shape)    weight=torch.cat([conv1.weight.data,conv2.weight.data],0)    bias=torch.cat([conv1.bias.data,conv2.bias.data],0)    return weight,bias

3.3.5 Transform V:AvgPooling->Conv

AvgPool就是将感受野的值求平均,那么转换成卷积就是卷积核中每个值的value都等于1/卷积核大小,代码实现如下:


    
def transV_avg(channel,kernel):    conv=nn.Conv2d(channel,channel,kernel,bias=False)    conv.weight.data[:]=0    for i in range(channel):        conv.weight.data[i,i,:,:]=1/(kernel*kernel)    return conv

3.3.6 Transform VI:1x1Conv+1x3Conv+3x1Conv(并联)->Conv

这个操作其实就是ACNet的思想,详情可以见上面ACNet的解析,代码实现如下:


    
def transVI_conv_scale(conv1, conv2, conv3):    weight=F.pad(conv1.weight.data,(1,1,1,1))+F.pad(conv2.weight.data,(0,0,1,1))+F.pad(conv3.weight.data,(1,1,0,0))    bias=conv1.bias.data+conv2.bias.data+conv3.bias.data    return weight,bias

3.4. 代码调用

3.4.1. Transform I:Conv+BN->BN


    
from rep.ddb import transI_conv_bnimport torchfrom torch import nnfrom torch.nn import functional as F
input=torch.randn(1,64,7,7)#conv+bnconv1=nn.Conv2d(64,64,3,padding=1)bn1=nn.BatchNorm2d(64)bn1.eval()out1=bn1(conv1(input))
#conv_fuseconv_fuse=nn.Conv2d(64,64,3,padding=1)conv_fuse.weight.data,conv_fuse.bias.data=transI_conv_bn(conv1,bn1)out2=conv_fuse(input)
print("difference:",((out2-out1)**2).sum().item())

3.4.2. Transform II:并联Conv->Conv


    
from rep.ddb import transII_conv_branchimport torchfrom torch import nnfrom torch.nn import functional as F
input=torch.randn(1,64,7,7)
#conv+convconv1=nn.Conv2d(64,64,3,padding=1)conv2=nn.Conv2d(64,64,3,padding=1)out1=conv1(input)+conv2(input)
#conv_fuseconv_fuse=nn.Conv2d(64,64,3,padding=1)conv_fuse.weight.data,conv_fuse.bias.data=transII_conv_branch(conv1,conv2)out2=conv_fuse(input)
print("difference:",((out2-out1)**2).sum().item())

3.4.3 Transform III:1x1Conv + 3x3Conv->3x3Conv


    
from rep.ddb import transIII_conv_sequentialimport torchfrom torch import nnfrom torch.nn import functional as F
input=torch.randn(1,64,7,7)
#conv+convconv1=nn.Conv2d(64,64,1,padding=0,bias=False)conv2=nn.Conv2d(64,64,3,padding=1,bias=False)out1=conv2(conv1(input))

#conv_fuseconv_fuse=nn.Conv2d(64,64,3,padding=1,bias=False)conv_fuse.weight.data=transIII_conv_sequential(conv1,conv2)out2=conv_fuse(input)
print("difference:",((out2-out1)**2).sum().item())

3.4.4 Transform IV:Concat Conv->Conv


    
from rep.ddb import transIV_conv_concatimport torchfrom torch import nnfrom torch.nn import functional as F
input=torch.randn(1,64,7,7)
#conv+convconv1=nn.Conv2d(64,32,3,padding=1)conv2=nn.Conv2d(64,32,3,padding=1)out1=torch.cat([conv1(input),conv2(input)],dim=1)
#conv_fuseconv_fuse=nn.Conv2d(64,64,3,padding=1)conv_fuse.weight.data,conv_fuse.bias.data=transIV_conv_concat(conv1,conv2)out2=conv_fuse(input)
print("difference:",((out2-out1)**2).sum().item())

3.4.5 Transform V:AvgPooling->Conv


    
from rep.ddb import transV_avgimport torchfrom torch import nnfrom torch.nn import functional as F
input=torch.randn(1,64,7,7)
avg=nn.AvgPool2d(kernel_size=3,stride=1)out1=avg(input)
conv=transV_avg(64,3)out2=conv(input)
print("difference:",((out2-out1)**2).sum().item())

3.4.6 Transform VI:1x1Conv+1x3Conv+3x1Conv(并联)->Conv


    
from rep.ddb import transVI_conv_scaleimport torchfrom torch import nnfrom torch.nn import functional as F
input=torch.randn(1,64,7,7)
#conv+convconv1x1=nn.Conv2d(64,64,1)conv1x3=nn.Conv2d(64,64,(1,3),padding=(0,1))conv3x1=nn.Conv2d(64,64,(3,1),padding=(1,0))out1=conv1x1(input)+conv1x3(input)+conv3x1(input)
#conv_fuseconv_fuse=nn.Conv2d(64,64,3,padding=1)conv_fuse.weight.data,conv_fuse.bias.data=transVI_conv_scale(conv1x1,conv1x3,conv3x1)out2=conv_fuse(input)
print("difference:",((out2-out1)**2).sum().item())

如果觉得有用,就请分享到朋友圈吧!

△点击卡片关注极市平台,获取最新CV干货

公众号后台回复“84”获取第84期直播PPT


极市干货
YOLO教程:一文读懂YOLO V5 与 YOLO V4大盘点|YOLO 系目标检测算法总览全面解析YOLO V4网络结构
实操教程:PyTorch vs LibTorch:网络推理速度谁更快?只用两行代码,我让Transformer推理加速了50倍PyTorch AutoGrad C++层实现
算法技巧(trick):深度学习训练tricks总结(有实验支撑)深度强化学习调参Tricks合集长尾识别中的Tricks汇总(AAAI2021
最新CV竞赛:2021 高通人工智能应用创新大赛CVPR 2021 | Short-video Face Parsing Challenge3D人体目标检测与行为分析竞赛开赛,奖池7万+,数据集达16671张!


CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart2)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~



觉得有用麻烦给个在看啦~  
浏览 79
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报