论文盘点:CVPR 2018 Top 20,华人发明的SENet居首!

最近CV君在盘点近几年三大CV顶会的论文,继CVPR 2019 、ICCV 2019 、ECCV 2018 Top 20 论文后:

时隔一年,盘点CVPR 2019影响力最大的20篇论文

时隔两年,盘点ECCV 2018影响力最大的20篇论文

论文盘点:ICCV 2019 Top 20,MobileNetV3居首!

本文盘点CVPR 2018 引用数Top 20 的论文,虽然计划是只取前20篇,但实际上是21篇文章,因为最后两篇文章的引用数恰好相同(截止今日,即2020年8月10日)。

特别值得一提的是 CVPR 2018 引用数最高的论文Squeeze-and-excitation networks(SENet),出自国内自动驾驶公司 Momenta,对整个深度学习研究社区影响巨大。

1. 这些论文涵盖的方向:

基础网络结构(SENet、Non-local)、

轻量级网络结构(MobileNetv2、ShuffleNet)、

神经架构搜索(NASNet)、

图像描述、

GAN(图像转化、图像合成编辑)、

感知相似度量、

超分辨率、

少样本学习、

点云3D目标检测(Voxelnet)、

2D目标检测(Cascade R-CNN)、

RGB-D 3D目标检测、

场景理解多任务学习、

CNN研究(深度图像先验)、

光流(PWC-Net)、

图像修复、

对抗学习、

ReID、

人脸识别(CosFace)。

2. 从以上CVPR 2018 热文中可以看出,网络结构设计(人工设计+机器搜索网络架构)的文章很多,SENet、Non-local、MobileNetv2、ShuffleNet、NASNet 这些工作都对后来的研究有重大影响,相比于之前我们盘点的 CVPR 2019 、ICCV 2019 、ECCV 2018, (CV君认为)CVPR 2018 可能是最为精彩的。

3. 目标检测算法 Cascade R-CNN 到今天依然是COCO数据集上精度最高的算法之一,而且在众多CV算法大赛中折冠。

4. 论文引用是有时间累计效应的,时间越长,引用次数越高,相比于在同一年召开的ECCV 2018 ,CVPR 2018 Top 20 的论文引用量远高于前者,CVPR 在计算机视觉研究社区的影响力更大!

总计21篇文章

   No. 1

Squeeze-and-excitation networks

作者 | Jie Hu, Li Shen, Samuel Albanie, Gang Sun, Enhua Wu

单位 | Momenta;牛津大学

论文 | https://arxiv.org/abs/1709.01507

代码 | https://github.com/hujie-frank/SENet

引用次数 | 3628

   No. 2 Mobilenetv2

Mobilenetv2: Inverted residuals and linear bottlenecks

作者 | Mark Sandler, Andrew Howard, Menglong Zhu, Andrey Zhmoginov, Liang-Chieh Chen

单位 | 谷歌

论文 | https://arxiv.org/abs/1801.04381

引用次数 | 2361

   No. 3 图像识别

Learning transferable architectures for scalable image recognition

作者 | Barret Zoph, Vijay Vasudevan, Jonathon Shlens, Quoc V. Le

单位 | Google Brain

论文 | https://arxiv.org/abs/1707.07012

引用次数 | 1705

 

  No. 4 Shufflenet

Shufflenet: An extremely efficient convolutional neural network for mobile devices

作者 | Xiangyu Zhang, Xinyu Zhou, Mengxiao Lin, Jian Sun

单位 | 旷视

论文 | https://arxiv.org/abs/1707.01083

代码 | https://github.com/megvii-model/ShuffleNet-Series

引用次数 | 1500

   No. 5

Non-local neural networks

作者 | Xiaolong Wang, Ross Girshick, Abhinav Gupta, Kaiming He

单位 | 卡内基梅隆大学;FAIR

论文 | https://arxiv.org/abs/1711.07971

代码 | https://github.com/facebookresearch/

video-nonlocal-net

引用次数 | 1496

   No. 6 图像字幕与VQA

Bottom-up and top-down attention for image captioning and visual question answering

作者 | Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, Lei Zhang

单位 | 澳大利亚国立大学;京东;微软;阿德莱德大学;麦考瑞大学

论文 | https://arxiv.org/abs/1707.07998

备注 | CVPR 2018 full oral

引用次数 | 1168

   No. 7 Stargan 

Stargan: Unified generative adversarial networks for multi-domain image-to-image translation

用于多域图像到图像的翻译

作者 | Yunjey Choi, Minje Choi, Munyoung Kim, Jung-Woo Ha, Sunghun Kim, Jaegul Choo

单位 | 高丽大学;NAVER Corp;罗格斯大学;香港科技大學

论文 | https://arxiv.org/abs/1711.09020

代码 | https://github.com/yunjey/stargan

备注 | CVPR 2018 Oral

引用次数 | 1035

   No. 8

High-resolution image synthesis and semantic manipulation with conditional gans

条件GAN进行高分辨率图像合成和语义操作

作者 | Ting-Chun Wang, Ming-Yu Liu, Jun-Yan Zhu, Andrew Tao, Jan Kautz, Bryan Catanzaro

单位 | 英伟达;伯克利

论文 | https://arxiv.org/abs/1711.11585

代码 | https://github.com/NVIDIA/pix2pixHD

主页 | https://tcwang0509.github.io/pix2pixHD/

引用次数 | 1028

   No. 9

The unreasonable effectiveness of deep features as a perceptual metric

作者 | Richard Zhang, Phillip Isola, Alexei A. Efros, Eli Shechtman, Oliver Wang

单位 | 伯克利;OpenAI;Adobe Research

论文 | https://arxiv.org/abs/1801.03924

代码 | https://github.com/richzhang/

PerceptualSimilarity

引用次数 | 730

 

  No. 10 图像超分辨率

Residual dense network for image super-resolution

作者 | Yulun Zhang, Yapeng Tian, Yu Kong, Bineng Zhong, Yun Fu

单位 | 东北大学;罗切斯特大学;

论文 | https://arxiv.org/abs/1802.08797

代码 | https://github.com/yulunzhang/RDN

备注 | CVPR 2018 spotlight

引用次数 | 699

   No. 11(并列第十)少样本学习

Learning to compare: Relation network for few-shot learning

作者 | Flood Sung, Yongxin Yang, Li Zhang, Tao Xiang, Philip H.S. Torr, Timothy M. Hospedales

单位 | 伦敦玛丽女王大学;牛津大学;爱丁堡大学

论文 | https://arxiv.org/abs/1711.06025

代码 | https://github.com/floodsung/

LearningToCompare_FSL

引用次数 | 699

   No. 12 Voxelnet 点云3D目标检测

Voxelnet: End-to-end learning for point cloud based 3d object detection

基于点云的3D目标检测的端到端学习

作者 | Yin Zhou, Oncel Tuzel

单位 | Apple Inc

论文 | https://arxiv.org/abs/1711.06396

代码 | https://github.com/reinforcementdriving/

VoxelNet_CVPR_2018_PointCloud(非官方)

解读 | https://zhuanlan.zhihu.com/p/40051716

引用次数 | 658

   No. 13 Cascade r-cnn 目标检测

Cascade r-cnn: Delving into high quality object detection

作者 | Zhaowei Cai, Nuno Vasconcelos

单位 | 加利福尼亚大学圣迭戈分校

论文 | https://arxiv.org/abs/1712.00726

代码 | https://github.com/zhaoweicai/cascade-rcnn

解读 | https://zhuanlan.zhihu.com/p/35882192

https://zhuanlan.zhihu.com/p/36095768

引用次数 | 601

   No. 14

Frustum pointnets for 3d object detection from rgb-d data

从RGB-D数据中检测3D目标的Frustum点阵网

作者 | Charles R. Qi, Wei Liu, Chenxia Wu, Hao Su, Leonidas J. Guibas

单位 | 斯坦福大学;Nuro, Inc;加利福尼亚大学圣迭戈分校

论文 | https://arxiv.org/abs/1711.08488

代码 | https://github.com/charlesq34/frustum-pointnets

解读 | https://zhuanlan.zhihu.com/p/41634956

引用次数 | 581

   No. 15

Multi-task learning using uncertainty to weigh losses for scene geometry and semantics

作者 | Alex Kendall, Yarin Gal, Roberto Cipolla

单位 | 剑桥大学;牛津大学

论文 | https://arxiv.org/abs/1705.07115

代码 | https://github.com/ranandalon/mtl(非官方)

引用次数 | 571

   No. 16

Deep image prior

作者 | Dmitry Ulyanov, Andrea Vedaldi, Victor Lempitsky

单位 | Skolkovo 科学技术研究院;牛津大学

论文 | https://arxiv.org/abs/1711.10925

代码 | https://github.com/DmitryUlyanov/deep-image-prior

主页 | https://dmitryulyanov.github.io/

deep_image_prior

引用次数 | 549

   No. 17 光流

Pwc-net: Cnns for optical flow using pyramid, warping, and cost volume

作者 | Deqing Sun, Xiaodong Yang, Ming-Yu Liu, Jan Kautz

单位 | 英伟达

论文 | https://arxiv.org/abs/1709.02371

代码 | https://github.com/NVlabs/PWC-Net

解读 | https://www.52cv.net/?p=414

备注 | CVPR 2018 Oral

引用次数 | 524

   No. 18 图像修复

Generative image inpainting with contextual attention

作者 | Jiahui Yu, Zhe Lin, Jimei Yang, Xiaohui Shen, Xin Lu, Thomas S. Huang

单位 | 伊利诺伊大学厄巴纳-香槟分校;Adobe Research

论文 | https://arxiv.org/abs/1801.07892

代码 | https://github.com/JiahuiYu/generative

_inpainting

主页 | http://jiahuiyu.com/deepfill/

引用次数 | 522

   No. 19

Robust Physical-World Attacks on Deep Learning Models

作者 | Kevin Eykholt, Ivan Evtimov, Earlence Fernandes, Bo Li, Amir Rahmati, Chaowei Xiao, Atul Prakash, Tadayoshi Kohno, Dawn Song

单位 | 密歇根大学;华盛顿大学;伯克利;三星美国研究院和石溪大学

论文 | https://arxiv.org/abs/1707.08945

代码 | https://github.com/evtimovi/robust_

physical_perturbations

引用次数 | 511

   No. 20 人员重识别

Harmonious attention network for person re-identification

作者 | Wei Li, Xiatian Zhu, Shaogang Gong

单位 | 伦敦玛丽女王大学;Vision Semantics Ltd

论文 | https://arxiv.org/abs/1802.08122

引用次数 | 483

   No. 21(并列二十)人脸识别

Cosface: Large margin cosine loss for deep face recognition

作者 | Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou, Zhifeng Li, Wei Liu

单位 | 腾讯AI

论文 | https://arxiv.org/abs/1801.09414

引用次数 | 483

转载请注明:《论文盘点:CVPR 2018 Top 20,华人发明的SENet居首!