QbitAI量子位

文章数:10350 被阅读:146647018

账号入驻

颜水成发了个「简单到令人尴尬」的视觉模型,证明Transformer威力源自其整体架构

最新更新时间:2021-11-30 08:52
    阅读数:
梦晨 发自 凹非寺
量子位 报道 | 公众号 QbitAI

Transformer做视觉取得巨大成功,各大变体频频刷榜,其中谁是最强?

早期人们认为是其中的注意力机制贡献最大,对注意力模块做了很多改进。

后续研究又发现不用注意力换成Spatial MLP效果也很好,甚至使用傅立叶变换模块也能保留97%的性能。

争议之下,颜水成团队的最新论文给出一个不同观点

其实这些具体模块并不重要,Transformer的成功来自其整体架构

他们把Transformer中的注意力模块替换成了简单的空间池化算子,新模型命名为PoolFormer

这里原文的说法很有意思,“简单到让人尴尬”……

测试结果上,PoolFormer在ImageNet-1K上获得了82.1%的top-1精度。

(PyTorch版代码已随论文一起发布在GitHub上,地址可在这篇推文末尾处获取。)

同等参数规模下,简单池化模型超过了一些经过调优的使用注意力(如DeiT)或MLP模块(如ResMLP)的模型。

这个结果让一些围观的CVer直接惊掉下巴:

太好奇了,模型简单到什么样才能令人尴尬?

PoolFormer

整体结构与其他模型类似,PoolFormer只是把token mixer部分换了一下。

因为主要验证视觉任务,所以假设输入数据的格式为通道优先,池化算子描述如下:

PyTorch风格的伪代码大概是这样:

池化算子的复杂度比自注意力和Spatial MLP要小,与要处理的序列长度呈线性关系。

其中也没有可学习的参数,所以可以采用类似传统CNN的分阶段方法来充分发挥性能,这次的模型分了4个阶段

假设总共有L个PoolFormer块,那么4个阶段分配成L/6、L/6、L/2、L/6个。

每个阶段的具体参数如下:

PoolFormer基本情况介绍完毕,下面开始与其他模型做性能对比。

首先是图像分类任务,对比模型分为三类:

  • CNN模型ResNet和RegNetY

  • 使用注意力模块的ViT、DeiT和PVT

  • 使用Spatial MLP的MLP-Mixer、ResMLP、Swin-Mixer和gMLP

在ImageNet-1K上,无论是按累计乘加操作数(MACs)还是按参数规模为标准,PoolFormer性能都超过了同等规模的其他模型。

目标检测实例分割任务上用了COCO数据集,两项任务中PoolFormer都以更少的参数取得比ResNet更高的性能。

目标检测

实例分割

最后是ADE20K语义分割任务,PoolFormer的表现也超过了ResNet、ResNeXt和PVT。

消融实验

上面可以看出,几大视觉任务上PoolFormer都取得了有竞争力的成绩。

不过这还不足以支撑这篇论文开头提出的那个观点。

到底是整体架构重要?还是说PoolFormer中的池化模块刚好是一种简单却有效的Token Mixer?

团队的验证方法是把池化模块直接替换成恒等映射(Identity Mapping)

结果令人惊讶,替换后在ImageNet-1K上也保留了74.3%的Top-1精度。

在此基础上无论是改变池化核尺寸归一化方法激活函数影响都不大。

最重要的是,在4个阶段中把注意力和空间全连接层等机制混合起来用性能也不会下降。

其中特别观察到,前两阶段用池化后两阶段用注意力这种组合表现突出。

这样的配置下稍微增加一下规模精度就可达到81%,作为对比的ResMLP-B24模型达到相同性能需要7倍的参数规模和8.5倍的累计乘加操作。

最终,消融实验结果说明Transformer中具体到token mixer这个部分,具体用了哪种方法并不关键。

不增加模型规模的情况下,网络的整体结构才是对性能提升最重要的。

这样的整体结构被团队提炼出来,命名为MetaFormer

NLP上还会成立吗?

这项研究由颜水成领导的Sea AI Lab和来自新加坡国立大学的成员共同完成。

颜水成

论文的最后,团队表示下一步研究方向是在更多场景下继续验证,如自监督学习和迁移学习

除了视觉任务,也要看看在NLP任务上结论是否也成立。

另外发这篇论文还有一个目的:

呼吁大家把研究的重点放在优化模型的基础结构,而不是在具体模块上花太多精力去打磨。

论文地址:
https://arxiv.org/abs/2111.11418

GitHub仓库:
https://github.com/sail-sg/poolformer

本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。

直播免费报名!

与AI大咖一起预见智能科技新未来

量子位「MEET2022智能未来大会」将于11.30日全程直播,李开复博士、张亚勤教授、IBM大中华区CTO谢东百度集团副总裁吴甜京东集团副总裁何晓冬商汤科技联创杨帆小冰公司CEO李笛 等嘉宾邀你参会、一起预见智能科技新未来!

扫码可预约直播or加入大会交流群↓↓ 入群还可抽取惊喜礼品&现金红包哦

<< 左右滑动查看更多 >>

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态

一键三连「分享」「点赞」和「在看」

科技前沿进展日日相见 ~


推荐帖子

瑞萨开发板套机,出or换
一块瑞萨的开发板,没怎么用过,功能完好,英国产的,带E8仿真器;板太多,没时间玩,出或换,出的话,320包沙发;主换TI或NXP的板子;需要的站内信本站强荐:185娱乐’城.足球’真_人.彩票齐全’手机可投’注任何游戏.首次开户送10元.首存送58元.信誉绝对保证185.cc瑞萨开发板套机,出or换板漂亮,可惜仿真器不给力,不支持新型号本站强荐:185娱乐∴城.足球∴真_人.彩票齐全∴手机可投∴注任何游戏.首次开户送10元.首存送58元.信誉绝对保证185
yan2513 淘e淘
《了不起的芯片》8、第七章<中国“芯”再出发>读后感
这章读后有点心情激动。毕竟中国芯如雨后春笋般地起来了。以下是笔记:1,目前形成了以长三角,环渤海,珠三角、中西部等为核心的城市发展集群。2,张江不仅被称为中国硅谷,还被称为中国药谷3,长三角地区占大陆集成电路排行榜6席:上海,无锡,合肥,南京,苏州,杭州4,环渤海地区以京津为核心,以大连和青岛为两翼的布局。5,珠三角地区以深圳,广州,珠海为核心以佛山,江门,中山,东莞,惠州,肇庆,汕尾为重点的半导体产业集群。
ddllxxrr 综合技术交流
beaglebone black rtc 问题
beagleboneblack系统断电后时钟就停止了,麻烦问一下技术专家怎么能解决这个问题,BBB有没有哪个引出来的引脚能给片内RTC供电,让在系统断电后时间也能正常走beagleboneblackrtc问题给个备用电池啊
zhangb DSP 与 ARM 处理器
stm32f030R8 中文参考资料
stm32f030R8中文参考资料只有STM32F05X的,其他的没有
55555c ARM技术
请问如何用C#操作串口除2、3、5以外的六个针脚?
请问如何用C#操作串口除2、3、5以外的六个针脚?请问如何用C#操作串口除2、3、5以外的六个针脚?
472438470 嵌入式系统
想问问各位前辈.....
想朝嵌入式Linux方向发展,现在只看了c++primer。各位前辈们的发展轨迹是什么样的,能传授一下经验么?譬如说看书的先后顺序等谢谢了想问问各位前辈.....UPUP我再UP,我就不相信没有热心人要看你想往哪个方向发展了。如果是搞内核和驱动的话,入门要求较高,最好要扎实的C语言基础,并能读懂目标平台的汇编语言,对硬件的工作机制也要有一定的了解。应用开发的话,掌握好C/C++,另外需要了解linux平台下的API,可以参看经典名著Unix环境高级编程。最重要的是
kaixin1 嵌入式系统

最新有关QbitAI量子位的文章

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: TI培训

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2021 EEWORLD.com.cn, Inc. All rights reserved