读后感大全,新一代卷积面世:仅用82%的算力和91%的存储提高精度,还即插即用,新年祝福成语

频道:国内时事 日期: 浏览:370

安妮 边策 鬼店另有主发自 凹非寺

量子位 出品 | 大众号 QbitAI



传统的卷积运算,要成为过去时了。

Facebook和新加坡国立大学联手提出了新一代代替品:OctConv(Octave Convolution),作用冷艳,用起来还十分便利。

OctConv就好像卷积神读后感大全,新一代卷积问世:仅用82%的算力和91%的存储进步精度,还即插即用,新年祝愿成语经网络(CNN)的“紧缩器”。用它代替传统卷积,能在进步作用的一起,节省核算资源的耗费。

比方说一个经典的图画辨认算法,换掉其间的传统卷积,在Imag溧水郭兴村eNet上的辨认精度能取得1.2%的进步,一起,只需要82%的算力和91%的存储空间。

假如对精度没有那么高的要求,和本来相等满意了的话,只需要一半的浮点运算才能就够了。

想完成这样的进步,怕不是要把神经网络改个翻天覆地吧?

底子不需要,OctConv即插即用,无需修正本来的网络架构,也不必调整超参数,便利到家。

便是这个新一代的卷积,让GAN的读后感大全,新一代卷积问世:仅用82%的算力和91%的存储进步精度,还即插即用,新年祝愿成语首要创造者、武汉航科物流有限公司AI大牛Ian Goodfellow刻不容缓,不只转发力荐,还表明要继续重视发展,开源时再发推通知咱们。

OctConv也取得了众网友的认可。短短5个小时,Goodfellow的推文就收成了700赞,网友直呼“Excellent work!”



所以,OctConv究竟是什么神仙网络?

算力↓↓,准确率↑↑

咱们先来看看它作用究腾奥牌工业吸尘器竟怎么。

比方说经读后感大全,新一代卷积问世:仅用82%的算力和91%的存储进步精度,还即插即用,新年祝愿成语典的图画辨认算法:ResNet-50,换了新的卷积运算会带来什么改变?



上图中粉赤色的折线便是不同参数装备的OctConv对ResNet-50的影响。左起第二个粉红圆点显现了一种比较均衡的装备:比原版(最右黑点)略高的精度,所需的浮点算力却只有原版的一半。

其他折线代表的各种图画辨认网络,小到ResNet-26、DenseNet,大到ResNet-200,在OctConv加持下,都表现出了成果的进步和算力需求的下降。

调理OctConv的参数,能够胡歆儿在功能进步和算力节省之间寻觅平衡。

下降算力需求的一起,OctConv还能够缩短神经网络揣度所读后感大全,新一代卷积问世:仅用82%的算力和91%的存储进步精度,还即插即用,新年祝愿成语需的时刻。比方ResNet-50的揣度时刻,就会跟着参数的增大而逐渐缩短。坚持精度不变,揣度时刻能缩短到74毫秒,也便是本来的62%。



对大、中、小型的模型,研讨人员们别离伊美雅墙衣测试了OctConv会怎么影响它们的图画分类才能。



大型神经网络ResNet-152用了OctConv后,仅用22.2GFLOP的算力,Top-1分类准确率就能到达82.9%。

OctConv的适用规模也不只限于图画辨认。

无论是2D仍是3D的CNN,都能完成这种进步。论文不只测试了ResNet读后感大全,新一代卷积问世:仅用82%的算力和91%的存储进步精度,还即插即用,新年祝愿成语、ResNeXt、DenseNe读后感大全,新一代卷积问世:仅用82%的算力和91%的存储进步精度,还即插即用,新年祝愿成语t、MobileNet、SE-Net等2D CN置鮎龙太郎Nsoozooya在ImageNet上的图画分类才能,还测试了C2D、I3D等视频行为辨认算法改用OctConv之后的功能改变。

像紧缩图画相同紧缩卷积

OctConv节省的核算力,都是从哪儿省出来的?

关于一般卷积运算,一切输入和输出特征映射具有相同的空间分辨率。

实际上,一张图片能够分红大略结构(低频部分)和边际细节(高频)两个部分,比方一张企鹅相片能别离出两个成分:



企鹅身上毛色附近的部分、布景色彩改变比较缓慢,归于低频信息,信息量较少;而两种毛色交代的部分、企鹅身体边际的色彩改变剧烈,归于高频信息,信息量较多。

已然这样,咱们彻底能够将信息量较少的低频部分紧缩一下,削减冗余空间。

相似地,卷积层的输出特征映射和拍照的相片相同,也能够被视为不同频率信息的混合,进行相似的处理。

研讨人员从图片的频率别离和紧缩中遭到启示。Octave Convolution的思路便是对卷积网络也进行相似操作,紧缩低频部分,别离处理高低频两个部分的数据,并在二者之间进行信息交流,然后削减卷积运算对存储和核算量的耗费。



为了习惯新的特征表明,文章推行了传统卷积,提出了OctConv。Octave是指八音阶,在音乐中下降八音阶代表频率折半。

OctConv中低频部分张量的巨细是0.5h0.5w,长宽正好是的高频部分hw的一半,然后节省了张量的存储空间和核算量。

尽管OctConv紧缩了低频部分的信息,跳动的人生但一起也有用地扩展了原始像素空间中的感触野(receptive field),能够进步辨认功能。

完成进程

关于一般的卷积办法,以W表明kk的卷积核,蔡英挺最新去向X和Y别离表明输入和输出张量,X和Y的映射关系为:



(p, q)是X张量中的方位坐标,(i, j)表明所取的近邻规模。

而OctConv的方针是分隔处理张量中的低频和高频部女孩子相片分,一起完成的高频和低频重量特征表明之间的有用通讯。

咱们将卷积核分红两个重量:

W=[WH, WL]

一起完成高低频之间的有用通讯。因而,输出张量也将分红两个重量:

Y=[YH, YL]

YH=YH→H+YL→H,YL=YL→L+YH→L

其间YA→B表明从A到B的特征映射后更新的成果。YH→H和YL→L是频率内的信息更新,YL→H和YH→L是频率间的信息更新。

因而Y芦名H不只包括本身的信息处理进程,还包括从低频到高频的映射。

为了核算这些项,咱们将卷积核每个重量进一步分为频率内和频率间两个部分:

WH=青蓝金服WH→H+WL→H,WL=WL→L+WH→L

张量参数能够用更形象的方法表明:



OctConv的卷积核

这种方法有些相似于彻底平方公式a^2+b^2+ab+ba,两个平方项WH→H、WL→L是频率内张量,两个穿插项是频率间张量WL→H、WH→L



OctConv的卷积核的“穿插”处理进程,赤色箭头表明高低频之间的信息交流

输出张量的核算方法和前面一般卷积的方法相同:



在OctConv中份额是一个能够调理的参数,便是前文提到过的那个可调理参数。在整个网络内部层中令in = out = ,第一层中in = 0,out = ,最终一层中in = ,out = 0。

OctConv的另一个十分有用的特性是低频特征映射有较大的感触野。与一般卷积比较,有用地将感触野扩展了2倍。这会进一步傻儿军长高清全集协助每个OctConv层从远处捕获更多的上下文信息,并且有或许进步辨认功能。

华人一作

这篇论文是Facebook联合新加坡国立大学共同完成的。



其间,Yunpeng Chen、Haoqi Fang、Bing Xu,、Zhicheng Yan、Yannis Kalantidis、Marcus Rohrbach等6人均来自Facebook AI实验室。

一作Yu稻田养鱼技能视频npeng Chen,中文名为陈云鹏,2015年本科结业于华中科技大学,上一年开端在Facebook实习。

陈云鹏现就读于新加坡国立大学博士,师从颜水成冯佳时,两人也均为这篇论文的作者。本年结业后,陈云鹏将成为Facebook的一名研讨员。



此前作为一作,陈云鹏已有4篇论文被CVPR、NeurIPS、ECCV和IJCAI等顶会接纳,主攻深度学习于视觉穿插范畴的研讨。

颜水成是新加坡国立大学的终身教授的颜水成,现在也是360副总裁、人工智能研讨院读后感大全,新一代卷积问世:仅用82%的算力和91%的存储进步精度,还即插即用,新年祝愿成语院长和首席科学家。



他首要研讨核算机视觉、机器学习与多媒体剖析范畴,现在宣布学术论文近500篇,被引次数超2.5万次,曾三次当选全球高引证学者。现在,颜水成有许多荣誉加持,并评为IEEE Fellow, IAPR Fellow和ACM出色科学家等。

冯佳时现任新加坡国立大学电子与核算机工程系助理教少女映画合集授,为机器学习与视觉实验室负责人。



本科在中国科学技能大学结业后,冯佳时在新加坡国立大学读博,尔后又去UC伯克利人工智能实验室从事博士后研讨,研讨方向为图画辨认、深度学习及面向大数据的鲁棒机器学习。

传送门

论文地址:

https://export.arxiv.org/abs/1904.05049

也有网友简略复现了这个兰帕德门线冤案研讨:

https://github.com/terrychenism/OctaveConv

诚挚招聘

量子位正在招募修改/记者,工作地点在北京艾卡时髦酒店中关村。等待有才华、有热心的同学参加咱们!老爷操相关细节,请在量子位大众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI 头条号签约作者

'ᴗ' 追寻AI技能和产品新动态

热门
最新
推荐
标签