生活工程体验信仰哲学精神
投稿投诉
精神世界
探索历史
哲学文学
艺术价值
信仰创造
境界审美
体验技术
技能工具
工程信息
医学生产
生活运用
操作能力

好文:过滤器用于什么地方(过滤器的作用)

3月3日 栀璃鸢投稿
  作者Justinho
  来源机器学习算法那些事
  从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量。我下面会对近几年一些具有变革性的工作进行简单盘点,从这些充满革新性的工作中探讨日后的CNN变革方向。
  卷积只能在同一组进行吗?
  Groupconvolution
  Groupconvolution分组卷积,最早在AlexNet中出现,由于当时的硬件资源有限,训练AlexNet时卷积操作不能全部放在同一个GPU处理,因此作者把featuremaps分给多个GPU分别进行处理,最后把多个GPU的结果进行融合。
  AlexNet
  分组卷积的思想影响比较深远,当前一些轻量级的SOTA(StateOfTheArt)网络,都用到了分组卷积的操作,以节省计算量。但题主有个疑问是,如果分组卷积是分在不同GPU上的话,每个GPU的计算量就降低到1groups,但如果依然在同一个GPU上计算,最终整体的计算量是否不变?找了pytorch上有关组卷积操作的介绍,望读者解答我的疑问。
  pytrochgithub
  EDIT:
  关于这个问题,知乎用户朋友蔡冠羽提出了他的见解:
  我感觉groupconv本身应该就大大减少了参数,比如当inputchannel为256,outputchannel也为256,kernelsize为33,不做groupconv参数为25633256,若group为8,每个group的inputchannel和outputchannel均为32,参数为8323332,是原来的八分之一。这是我的理解。
  我的理解是分组卷积最后每一组输出的featuremaps应该是以concatenate的方式组合,而不是elementwiseadd,所以每组输出的channel是inputchannelsgroups,这样参数量就大大减少了。
  卷积核一定越大越好?33卷积核
  AlexNet中用到了一些非常大的卷积核,比如1111、55卷积核,之前人们的观念是,卷积核越大,receptivefield(感受野)越大,看到的图片信息越多,因此获得的特征越好。虽说如此,但是大的卷积核会导致计算量的暴增,不利于模型深度的增加,计算性能也会降低。于是在VGG(最早使用)、Inception网络中,利用2个33卷积核的组合比1个55卷积核的效果更佳,同时参数量(3321VS5511)被降低,因此后来33卷积核被广泛应用在各种模型中。
  每层卷积只能用一种尺寸的卷积核?
  Inception结构
  传统的层叠式网络,基本上都是一个个卷积层的堆叠,每层只用一个尺寸的卷积核,例如VGG结构中使用了大量的33卷积层。事实上,同一层featuremap可以分别使用多个不同尺寸的卷积核,以获得不同尺度的特征,再把这些特征结合起来,得到的特征往往比使用单一卷积核的要好,谷歌的GoogLeNet,或者说Inception系列的网络,就使用了多个卷积核的结构:
  最初版本的Inception结构
  如上图所示,一个输入的featuremap分别同时经过11、33、55的卷积核的处理,得出的特征再组合起来,获得更佳的特征。但这个结构会存在一个严重的问题:参数量比单个卷积核要多很多,如此庞大的计算量会使得模型效率低下。这就引出了一个新的结构:
  怎样才能减少卷积层参数量?
  Bottleneck
  发明GoogleNet的团队发现,如果仅仅引入多个尺寸的卷积核,会带来大量的额外的参数,受到NetworkInNetwork中11卷积核的启发,为了解决这个问题,他们往Inception结构中加入了一些11的卷积核,如图所示:
  加入11卷积核的Inception结构
  根据上图,我们来做个对比计算,假设输入featuremap的维度为256维,要求输出维度也是256维。有以下两种操作:
  256维的输入直接经过一个33256的卷积层,输出一个256维的featuremap,那么参数量为:25633256589,824
  256维的输入先经过一个1164的卷积层,再经过一个3364的卷积层,最后经过一个11256的卷积层,输出256维,参数量为:2561164643364641125669,632。足足把第一种操作的参数量降低到九分之一!
  11卷积核也被认为是影响深远的操作,往后大型的网络为了降低参数量都会应用上11卷积核。
  越深的网络就越难训练吗?
  ResNet残差网络
  ResNetskipconnection
  传统的卷积层层叠网络会遇到一个问题,当层数加深时,网络的表现越来越差,很大程度上的原因是因为当层数加深时,梯度消散得越来越严重,以至于反向传播很难训练到浅层的网络。为了解决这个问题,何凯明大神想出了一个残差网络,使得梯度更容易地流动到浅层的网络当中去,而且这种skipconnection能带来更多的好处,这里可以参考一个PPT:极深网络(ResNetDenseNet):SkipConnection为何有效及其它,以及我的一篇文章:为什么ResNet和DenseNet可以这么深?一文详解残差块为何能解决梯度弥散问题。大家可以结合下面的评论进行思考。
  卷积操作时必须同时考虑通道和区域吗?
  DepthWise操作
  标准的卷积过程可以看上图,一个22的卷积核在卷积时,对应图像区域中的所有通道均被同时考虑,问题在于,为什么一定要同时考虑图像区域和通道?我们为什么不能把通道和空间区域分开考虑?
  Xception网络就是基于以上的问题发明而来。我们首先对每一个通道进行各自的卷积操作,有多少个通道就有多少个过滤器。得到新的通道featuremaps之后,这时再对这批新的通道featuremaps进行标准的11跨通道卷积操作。这种操作被称为DepthWiseconvolution,缩写DW。
  这种操作是相当有效的,在imagenet1000类分类任务中已经超过了InceptionV3的表现,而且也同时减少了大量的参数,我们来算一算,假设输入通道数为3,要求输出通道数为256,两种做法:
  1。直接接一个33256的卷积核,参数量为:3332566,912
  2。DW操作,分两步完成,参数量为:333311256795,又把参数量降低到九分之一!
  因此,一个depthwise操作比标准的卷积操作降低不少的参数量,同时论文中指出这个模型得到了更好的分类效果。
  EDIT:2017。08。25
  本文在发出12小时后,一位知乎用户私信了我,向我介绍了Depthwise和Pointwise的历史工作,而Xception和Mobilenet也引用了他们16年的工作,就是MinWangetal的FactorizedConvolutionalNeuralNetworks,这篇论文的Depthwise中,每一通道输出的featuremap(称为基层)可以不止一个,而Xception中的DepthwiseseparableConvolution,正是这篇工作中单一基层的情况。推荐有兴趣的读者关注下他们的工作,这里有篇介绍博文:【深度学习】卷积层提速FactorizedConvolutionalNeuralNetworks。而最早关于separableconvolution的介绍,Xception作者提到,应该追溯到LaurentSifre2014年的工作RigidMotionScatteringForImageClassification6。2章节。
  分组卷积能否对通道进行随机分组?ShuffleNet
  在AlexNet的GroupConvolution当中,特征的通道被平均分到不同组里面,最后再通过两个全连接层来融合特征,这样一来,就只能在最后时刻才融合不同组之间的特征,对模型的泛化性是相当不利的。为了解决这个问题,ShuffleNet在每一次层叠这种Groupconv层前,都进行一次channelshuffle,shuffle过的通道被分配到不同组当中。进行完一次groupconv之后,再一次channelshuffle,然后分到下一层组卷积当中,以此循环。
  来自ShuffleNet论文
  经过channelshuffle之后,Groupconv输出的特征能考虑到更多通道,输出的特征自然代表性就更高。另外,AlexNet的分组卷积,实际上是标准卷积操作,而在ShuffleNet里面的分组卷积操作是depthwise卷积,因此结合了通道洗牌和分组depthwise卷积的ShuffleNet,能得到超少量的参数以及超越mobilenet、媲美AlexNet的准确率!
  另外值得一提的是,微软亚洲研究院MSRA最近也有类似的工作,他们提出了一个IGC单元(InterleavedGroupConvolution),即通用卷积神经网络交错组卷积,形式上类似进行了两次组卷积,Xception模块可以看作交错组卷积的一个特例,特别推荐看看这篇文章:王井东详解ICCV2017入选论文:通用卷积神经网络交错组卷积
  要注意的是,Groupconv是一种channel分组的方式,DepthwisePointwise是卷积的方式,只是ShuffleNet里面把两者应用起来了。因此Groupconv和DepthwisePointwise并不能划等号。
  通道间的特征都是平等的吗?
  SEnet
  无论是在Inception、DenseNet或者ShuffleNet里面,我们对所有通道产生的特征都是不分权重直接结合的,那为什么要认为所有通道的特征对模型的作用就是相等的呢?这是一个好问题,于是,ImageNet2017冠军SEnet就出来了。
  SEnet结构
  一组特征在上一层被输出,这时候分两条路线,第一条直接通过,第二条首先进行Squeeze操作(GlobalAveragePooling),把每个通道2维的特征压缩成一个1维,从而得到一个特征通道向量(每个数字代表对应通道的特征)。然后进行Excitation操作,把这一列特征通道向量输入两个全连接层和sigmoid,建模出特征通道间的相关性,得到的输出其实就是每个通道对应的权重,把这些权重通过Scale乘法通道加权到原来的特征上(第一条路),这样就完成了特征通道的权重分配。作者详细解释可以看这篇文章:专栏Momenta详解ImageNet2017夺冠架构SENet
  能否让固定大小的卷积核看到更大范围的区域?Dilatedconvolution
  标准的33卷积核只能看到对应区域33的大小,但是为了能让卷积核看到更大的范围,dilatedconv使其成为了可能。dilatedconv原论文中的结构如图所示:
  上图b可以理解为卷积核大小依然是33,但是每个卷积点之间有1个空洞,也就是在绿色77区域里面,只有9个红色点位置作了卷积处理,其余点权重为0。这样即使卷积核大小不变,但它看到的区域变得更大了。详细解释可以看这个回答:如何理解空洞卷积(dilatedconvolution)?
  卷积核形状一定是矩形吗?Deformableconvolution可变形卷积核
  图来自微软亚洲研究院公众号
  传统的卷积核一般都是长方形或正方形,但MSRA提出了一个相当反直觉的见解,认为卷积核的形状可以是变化的,变形的卷积核能让它只看感兴趣的图像区域,这样识别出来的特征更佳。
  图来自微软亚洲研究院公众号
  要做到这个操作,可以直接在原来的过滤器前面再加一层过滤器,这层过滤器学习的是下一层卷积核的位置偏移量(offset),这样只是增加了一层过滤器,或者直接把原网络中的某一层过滤器当成学习offset的过滤器,这样实际增加的计算量是相当少的,但能实现可变形卷积核,识别特征的效果更好。详细MSRA的解读可以看这个链接:可变形卷积网络:计算机新视界。
  现在越来越多的CNN模型从巨型网络到轻量化网络一步步演变,模型准确率也越来越高。现在工业界追求的重点已经不是准确率的提升(因为都已经很高了),都聚焦于速度与准确率的tradeoff,都希望模型又快又准。因此从原来AlexNet、VGGnet,到体积小一点的Inception、Resnet系列,到目前能移植到移动端的mobilenet、ShuffleNet(体积能降低到0。5mb!),我们可以看到这样一些趋势:
  卷积核方面:
  大卷积核用多个小卷积核代替;
  单一尺寸卷积核用多尺寸卷积核代替;
  固定形状卷积核趋于使用可变形卷积核;
  使用11卷积核(bottleneck结构)。
  卷积层通道方面:
  标准卷积用depthwise卷积代替;
  使用分组卷积;
  分组卷积前使用
  通道加权计算。
  卷积层连接方面:
  使用skipconnection,让模型更深;
  denselyconnection,使每一层都融合上其它层的特征输出(DenseNet)
  启发
  类比到通道加权操作,卷积层跨层连接能否也进行加权处理?bottleneckGroupconvchannelshuffledepthwise的结合会不会成为以后降低参数量的标准配置?
  原文:
  https:zhuanlan。zhihu。comp28749411
  【end】
  旷视提CircleLoss,统一优化视角,革新深度特征学习范式CVPR2020
  清华学霸组团的工业AIoT创企再获数千万融资:玩家应推动在边缘AI芯片上跑算法
  腾讯内测全新Tim3。0,支持微信登录;滴滴顺风车上线夜间服务;Angular9。1发布
  为何你的SaaS想法总是失败?没想清楚这4个原因可能会继续失败!
  GitHub疑遭中间人攻击,无法访问,最大暗网托管商再被黑!
  万字好文:智能合约编写之Solidity的编程攻略,建议收藏!
  你点的每个在看,我都认真当成了AI
投诉 评论 转载

【歌词】尘埃在歌唱歌手:萨顶顶热闻聚热点网 孟庭苇飘作词:夏炎作曲:夏炎有时候我会不经意的想起你还有你和我总提起的空虚你总说漫长的梦漫长的生活就像永恒的长河像尘埃飘在人海中央像音符漫无……【歌词】远走高飞(YY雪儿清晰版)歌手:YY雪儿热博聚热点网 我一路看过千山和万水我的脚踏遍天南和地北日晒或是风吹我都无所谓路边那朵蔷薇鲜红的纯粹关掉了手机管他谁是谁不要去理会是是与非非天亮走到天黑从不……【歌词】LOVEisSOUP歌手:热闻聚热点网 MisoSoup作詞zopp作曲ShusuiStefanAberg歌Justanother“sameolday”Pickingupthesameo……好文:学生党瘦大肚腩的方法热文聚热点网 正常,因为学生党们整天伏于桌前,根本没时间锻炼。你看那些经常出入健身房,经常健身流汗的人就不会有这样那样的身体烦恼,这是为什么呢?所谓锻炼,能强身健体,自然能对腰部肌肉起作用,……【歌词】上帝也哭泣电影七匹狼的主题曲歌手:王杰热博聚热点网 王杰上帝也哭泣专辑:孤星英雄泪作词:王杰作曲:王杰我即将闭上我的眼睛此刻一片黑暗看不清楚不知道是谁在身边哭泣是谁轻言在叹息此刻我感觉好……橘子的功效与作用秋季吃橘子的好处热传聚热点网 秋季干燥,天气又转凉。虽说吃水果能够为身体补充维生素跟水分,但是一些脾胃虚寒的人吃了水果还是会出现不舒服的症状。不能生吃,那就蒸熟了吃吧这些熟吃比生吃还营养的水果一定要了……怎样做麻辣豆腐(麻辣豆腐)热评聚热点网 8月吃什么豆腐,一种常见的豆制品,有着植物肉的美称。由于其营养丰富,口感软嫩,受到了很多人的喜欢,豆腐的主要营养是含蛋白质和钙比较丰富,是人体蛋白质和钙的良好来源。豆腐的价格一……好文:草莓铺地膜的方法热文聚热点网 随着气温的下降,大家在扣好棚膜后就要着手准备铺地膜了,也许有人说能不能不用地膜,我说不可以,为什么呢?因为目前几乎所有的草莓种植中都实现了地膜覆盖,即便在露地草莓种植上地膜覆盖……女人酷一点的说说心情短语人生感悟热博聚热点网 一、女孩应该明白:气质比年龄重要,微笑比颜值重要,开心比爱情重要。二、旧情复燃的结果就是重蹈覆辙,自作多情的下场就是自取其辱。三、有酒就去喝,有情就去爱,一生那么短……【歌词】我的摇滚梦歌手:刘畅热文聚热点网 明星摇滚梦词曲:卫斯理Onedays我心血来潮打开了TV转来转去我头昏眼花看不太下去突然一瞬间我看见自己出现在TV拿着麦克风我唱着自己拿手的歌曲……好文:过滤器用于什么地方(过滤器的作用)热评聚热点网 作者Justinho来源机器学习算法那些事从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量。我……【歌词】WeAretheChampions歌手:皇后乐队热文 歌曲名:WeAretheChampions所属专辑:StoneColdClassics演唱:皇后乐队paidmyduesTI‘veimeafter……
什么平台订民宿靠谱?求教?热文聚热点网 【歌词】Egen歌手:IveGirls热博聚热点网 我国外汇储备3。2万亿美元,创16年新高,是好事还是坏事?热 被刑拘定会被判刑吗?外国籍会影响管辖吗?某凡能被粉丝看望吗? 萝卜炖排骨最好吃做法热文聚热点网 台湾歌王去世!因上春晚火遍全国,摔成重伤后被家人抛弃,前女友 如何评价沈梦辰15年前参加模特选秀的照片?热文聚热点网 【歌词】上等破麻歌手:谢文杰热评聚热点网 女子称儿子患有精神疾病被骗至缅北遭遇殴打和勒索热议聚热点网 比亚迪在盐城成立汽车销售公司热议聚热点网 利宝阁,5折,最后7天热议聚热点网 华为内部绩效管理:减员、增效、加薪!热文聚热点网
汽车换档的注意事项以刘备的实力,统一天下有多大的可能性上学的路上三年级作文范文如何做一只可爱的大象手工折纸白卷英雄张皎,高考考0分却扬言要做中国首富,现状如何【歌词】从今天以后歌手:李唯枫热闻聚热点网 哪里有问题的评价导向不利于学生课文朗读神奇的记忆器作文650字Windows10的Timeline功能可能推迟至明年3月推世上只有妈妈好四年级作文450字傅善祥最终去向如何她真被抛尸江中了吗毒蛇在酒里泡了一年,开瓶后窜出伤人,为何蛇在酒中泡这么久不死

友情链接:中准网聚热点快百科快传网快生活快软网快好知文好找新乡渭南铜川松江山南雅安松原荃湾淮北昭通平凉鞍山赤峰苗栗保亭池州渝北株洲陇南濮阳三沙秀山密云鸡西