您当前的位置:泰斗手机网 > 新闻 > 李沐团队提出最强ResNet改进版多项使命到达SOTA

李沐团队提出最强ResNet改进版多项使命到达SOTA

时间:2020-04-18 16:03:07  阅读:1618+ 来源:腾讯科技 作者:责任编辑NO。谢兰花0258

十三 发自 凹非寺

量子位 报导 | 大众号 QbitAI

在图画处理领域中,近年来的新模型可谓是层出不穷。

但在大多数的下流使命中,例如方针检测、语义切割,仍旧仍是用ResNet或其变体作为主干网络。

而最近,亚马逊李沐团队便提出了可谓“ResNet最强改善版”的网络——ResNeSt。

从姓名中不难看出,是引进了模块化的涣散留意力模块,能够让留意力跨特征图(feature-map)组。

那么,ResNeSt究竟有多强?

ResNeSt-50在224×224的ImageNet上,完成了81.13%的TOP-1精度,比之前最好的ResNet变体精度高出1%以上。

简略地用ResNeSt-50替换ResNet-50主干,能够让MS-COCO上的FasterRCNNNN的mAP,从39.25%进步到42.33%;ADE20K上的DeeplabV3的mIoU,从42.1%进步到45.1%。

这些改善对下流使命有很大的协助,包含方针检测、实例切割和语义切割。

就连李沐也发朋友圈,呼吁小伙伴们“一键晋级”。

更让人惊喜的是,这项作业已开源!

最强ResNet变体:多项使命获得“大满贯”

现在,咱们详细来看下ResNeSt在详细使命中的体现。

图画分类

第一个试验研讨了ResNeSt在ImageNet 2012数据集上的图画分类功能。

经过将ResNeSt和其他50层和101层装备、相似复杂度的ResNet变体作比较,TOP-1精度达到了最高,如下表所示。

还与不同巨细的CNN模型做了比较。

选用了256×256的ResNeSt-200, 和320×320的ResNeSt-269。关于输入巨细大于256的模型,选用双三次上采样战略(Bicubic upsampling strategy)。

从下表不难看出,与根据NAS发现的模型比较,ResNeSt具有更好的准确性和推迟权衡。

方针检测

接下来,是在方针检测上的功能。

一切的模型,都是在COCO-2017练习集上练习的118k图画,并在COCO-2017验证集上用5k图画进行评价。

运用FPN、同步批处理归一化(synchronized batch normalization)和图画规范增强,来练习一切模型。

为了便利比较,简略地用ResNeSt替换了vanilla ResNet主干,一起运用默认设置的超参数。

与运用规范ResNet的基线比较,ResNeSt的主干在Faster-RCNN和CascadeRCNN上,都能将均匀精度进步3%左右。

这就阐明ResNeSt的主干网络具有十分杰出的泛化才能,并且能够很容易地迁移到下流使命中。

有必要留意一下的是,ResNeSt50在Faster-RCNN和Cascade-RCNN检测模型上都优于ResNet101,并且运用的参数显着较少。

实例切割

在实例切割使命中,以ResNeSt-50和ResNeSt-101为主干,对Mask-RCNN和Cascade-Mask-RCNN模型进行评价。

试验成果如下表所示,关于Mask-RCNNN来说,ResNeSt50的box/mask功能增益分别为2.85%/2.09%,而ResNeSt101则体现出了更好的提高,达到了4.03%/3.14%。

关于Cascade-Mask-RCNN,切换到ResNeSt50或ResNeSt101所发生的增益分别为3.13%/2.36%或3.51%/3.04%。

这就标明,假如一个模型由更多的Split-Attention模块组成,那么它的作用会更好。

语义切割

在语义切割下流使命的搬运学习中,运用DeepLabV3的GluonCV完成作为基准办法。

从下表中不难看出,ResNeSt将DeepLabV3模型完成的mIoU提高了约1%,一起坚持了相似的全体模型复杂度。

有必要留意一下的是,运用ResNeSt-50的DeepLabV3模型的功能,比运用更大的ResNet-101的DeepLabV3更好。

ResNeSt:留意力切割网络

功能如此杰出,究竟是对ResNet做了怎样的改进呢?

接下来,咱们就来揭开ResNeSt的奥秘面纱。

正如方才咱们说到的,ResNeSt是根据ResNet,引进了Split-Attention块,能够跨不同的feature-map组完成feature-map留意力。

Split-Attention块是一个核算单元,由feature-map组和切割留意力操作组成。下2张图便描绘了一个Split-Attention块,以及cardinal group中的split-Attention。

从上面的2张图中不难看出,都有split的影子。比方 K(k) 和 R(r) 都是超参数,也便是合计 G = K*R 组。

除此之外,也能够与SE-Net和SK-Net对比着来看。

其间,SE-Net引进了通道留意力(channel-attention)机制;SK-Net则经过两个网络分支引进特征图留意力(feature-map attention)。

ResNeSt和SE-Net、SK-Net的对应图示如下:

研讨人员介绍

李沐,亚马逊首席科学家,加州大学伯克利分校客座助理教授,美国卡内基梅隆大学核算机系博士。

专心于分布式体系和机器学习算法的研讨。他是深度学习结构MXNet的作者之一。

曾任机器学习创业公司Marianas Labs的CTO和百度深度学习研讨院的主任研制架构师。

李沐有着丰厚的研讨成果,曾先后在国内外干流期刊上宣布多篇学术论文,其间《DiFacto — Distributed Factorization Machines 》在ACM世界网络查找和数据发掘(WSDM)大会上被评为最佳论文奖。