推广 热搜:   中国  公司  行业  设备  快速  企业  上海  未来  技术 

何恺明团队最新力作RegNet:超越EfficientNet,GPU上提速5倍,这是网络设计新范式 | CVPR 2020

   日期:2024-11-08     移动:http://www78564.xrbh.cn/mobile/quote/23318.html

鱼羊 十三 发自 凹非寺

何恺明团队最新力作RegNet:超越EfficientNet,GPU上提速5倍,这是网络设计新范式 | CVPR 2020

量子位 报道 | 公众号 QbitAI

大神(组团)出奇招,踢馆各路神经网络。

还是熟悉的团队,还是熟悉的署名,Facebook AI实验室,推陈出新挑战新的网络设计范式。

嗯,熟悉的Ross,熟悉的何恺明,他们带来全新的——RegNet。

不仅网络设计范式与当前主流“背道而驰”:简单、易理解的模型,也可以hold住高计算量。

和手动设计网络一样,其目标是可解释性,可以描述一些简单网络的一般设计原则,并在各种设置中泛化。

又和NAS一样,能利用半自动过程,来找到易于理解、构建和泛化的简单模型。

论文毫无疑问也中了CVPR 2020。

PS:论文是3月30日在arXiv发布,So 大家不用担心是愚人节的玩笑……

三组实验对比,近乎“大满贯”

RegNet在性能上就是如此突出。

实验在ImageNet数据集上进行,目标非常清晰:挑战各种环境下的神经网络。

上表就是600MF的RegNet,与这些网络比较的结果。可以看出,无论是基于手动设计还是NAS的网络,RegNe的表现都很出色。

何恺明团队强调,RegNet模型使用基本的100 epoch调度(schedule),除了权重衰减外,没有使用任何正则化。

而大多数移动网络使用更长的调度,并进行了各种增强,例如深度监督、Cutout、DropPath等等。

接下来,是RegNet与标准基线ResNet和ResNeXT的比较。

研究人员将activation定义为所有conv层的输出张量的大小,它会对像GPU这样的加速程度运行有较大的影响。

研究人员表示,这样设置的意义非常大,因为模型训练时间是一个瓶颈。未来可能在自动驾驶这样场景中,对改进推理时间有所帮助。给定固定的推理或训练时间,RegNet非常有效。

而在上表(b)中,展示了按照flops分组的比较。

最后,是RegNet与EfficientNet的比较。

构建网络设计空间

这里首先介绍一下 Radosavovic 等人提出的网络设计空间(network design spaces)概念。

其核心思想是,可以在设计空间中对模型进行采样,从而产生模型分布,并可以使用经典统计学中的工具来分析设计空间。

在何恺明团队的这项研究中,研究人员提出,设计一个不受限制的初始设计空间的逐步简化版本。这一过程,就称为设计空间设计(design space design)。

在设计过程的每个步骤中,输入都是初始设计空间,输出则是更简单、或性能更好的模型的精简模型。

C⊆B⊆A,可以看到,从A到B再到C,误差分布逐渐改善。

也就是说,每个设计步骤的目的,都是为了发现能够产生更简单、更有效模型的设计原理。

研究人员设计的初始设计空间是AnyNet。

除了第一个区块(使用 2 步长卷积)以外,每个阶段都包含一系列相同的区块。

虽然总体结构很简单,但 AnyNet 设计空间中可能存在的网络总数很庞大。

简化设计空间结构

提高设计空间的可解释性

改善或维持设计空间的质量

保持设计空间的模型多样性

于是,将初始的 AnyNetX 称作 AnyNetXA,开始进行“A→B→C→D→E”的优化过程。

首先,针对 AnyNetXA 设计空间的所有阶段,测试共享瓶颈率(bottleneck ratio)bi = b,将得到的设计空间成为 AnyNetXB。

同样,在相同设置下,从 AnyNetXB 采样并训练 500 个模型。

与前面一样,EDF几乎没有发生变化。

而后,研究人员在 AnyNetXC 中检验好网络和坏网络的典型网络结构。

他们发现:好网络的宽度是呈增长态势的。

于是,他们加入了设计原则 wi + 1 ≥ wi,将具有此约束条件的设计空间称为 AnyNetXD。

对于最佳模型,不仅仅是阶段宽度 wi 在增加,研究人员发现,阶段深度 di 也有同样的趋势,最后一阶段除外。

于是,在加入 di + 1 ≥ di 的约束条件之后,结果再一次改善。即 AnyNetXE。

一开始,为了提高效率,研究人员以低计算量、low-epoch 的训练方式设计了 RegNet 设计空间。

但是,他们的目标不是针对某一特定环境,而是发现网络设计的一般原理。

也就是说,RegNet 具有良好的泛化能力。

最后,还是照惯例来介绍下这支AI研究梦之队吧。

熟悉的面孔,熟悉的团队

Ross和何恺明,这个组合很熟悉了。

Raj Prateek Kosaraju和Ross Girshick,博士分别毕业于佐治亚理工学院和芝加哥大学,都是FAIR计算机视觉方向的科学家。

最后一位作者Piotr Dollar,博士毕业于美国加州大学圣迭戈分校,目前也就职于FAIR。

中国人民最熟悉的自然是天才AI研究员何恺明了。

而且此次何恺明团队提出的RegNet,从名字上看,也神似自己当年的力作——ResNet——2016年CVPR最佳论文奖。

除此之外,Kaiming大神也分别在2009年和2017年,获得了CVPR最佳论文奖,至今仍难有后来者。

不过也不意外,从近几年的研究来看,何恺明也在不断突破自己以前的方法、研究。

在超越何恺明的道路上,目前跑得最快的,依然是何恺明自己。

嗯,大神的快乐,就是这么朴实无华,且低调。

我们先膜为敬,如何评价RegNet就留给大家啦~

传送门

论文地址:

https://arxiv.org/pdf/2003.13678.pdf

本文地址:http://www78564.xrbh.cn/quote/23318.html    迅博思语 http://www78564.xrbh.cn/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


相关最新动态
推荐最新动态
点击排行
网站首页  |  二维码  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  粤ICP备2023022329号