CVPR2022 有什么值得关注的论文 ?

人工智能与算法学习

共 1201字,需浏览 3分钟

 · 2022-04-29

作者:匿名用户


观察近期CV论文产生的吐槽:


1,主流任务卷不动,开始往偏门任务钻,没有也得硬造一个出来。


2,打开论文,各种“may”"could"映入眼帘。经验学科坐实~


3,故事讲得动听但仔细推敲会察觉逻辑性不足,比如之前比较流行的故事模板“受人类视觉系统(or脑科学)中的XXX机制启发..."


4,只要刷点成功,就能证明方法有效,如果不服气,那就多刷几组呗。实验学科坐实~让其他专业的童鞋看cv顶会论文还以为在看实验大报告呢


5,一个贡献点能拆成三个讲。举个典型的例子,文章提出一个module A,如何拆成三个贡献呢?一,提出了A;二,以A为基础搭建了新的网络B;三,通过大量的实验证明了B(A)的有效性


6,篇幅不够怎么办?可视化来凑


7,硬堆公式。本来一些没有深度的东西看看文字或者图一目了然,但看公式的话会更加迷惑。与此类似的操作还有硬塞图表,举个极端的例子,同一个数据,用表给出后又用图画一遍。这些操作估计就是为了充实文章和增加逼格


8,基本概念分不清楚,比如MACs和Flops混用。此外,对于那些包含一堆花里胡哨算子的网络,你确定Flops统计得对吗


9,只挑弱的的方法比。某个方法经常被拿来比较,可能是因为该方法经典,也可能是因为该方法弱 (比如搞backbone的经常争对某cvpr best paper和某iccv best paper)。只要我不跟更好的方法比,我就是SOTA~ 有时候会感觉,虽然一年有好几篇号称SOTA的文章问世,但各个数据集的指标其实涨的没那么多。


10,cherry pick。这种现象主要归功于许多任务验证集和测试集不区分的“顽疾”。现在应该没多少人会设置多个随机种子然后取平均了。


11,各种排列组合。比如构造一个三维的表格,第一维表示任务,第二维表示网络,第三维表示算法/技巧。只要某一维增加了一个单位,立马就有人前仆后继地把表格填满。经典的例子,Transformer一出,CNN的范例就被一一搬过去了,包括pyramid/2D->1D/deformable/FFT/dynamic/shift/dilation/group等等。


12,有的模型不仅指标不行,而且设计复杂,一看就是会迅速被时代淘汰的东西,但唯一好的地方就是做的早抢了个好名字。


13,伪开源。现在会议鼓励/要求开源代码,但有的论文只公开不痛不痒的东西,而把关键的东西藏着掖着。比如有的只公开网络结构代码,或者再加个预训练模型,但真正有价值的训练代码没有放出,很多人复现不出来,提的issue石沉大海,这种现象太多拉。

-------------------------------------------------------

这个有点戾气的回答突然有了热度,幸好匿名了囧


文章转载自知乎,著作权归属原作者,侵删。


——The  End——

分享

收藏

点赞

在看

浏览 13
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报