顶会 paper 泛滥的情况下,应该遵循怎样的论文研读方法?
转自 | 机器之心
顶会论文越来越多,如何阅读?中国科学院大学计算机应用技术博士王晋东给出了一些建议。
非常好的想法。可能并不难,但是不告诉你你就永远想不到,解决的却是领域内的重大问题。经典例子是 ResNet。Skip connection 非常简单,但是想到加 skip connection 却很难。
非常扎实的工程实现和绝佳的性能。经典例子是 Transformer 和 BERT。自监督和无监督预训练并不是什么新的 idea,但是到了 Google 这帮厉害的程序员手里就可以利用大规模数据和分布式训练,硬生生搞出前无古人的性能。
非常充分的理论证明。从理论角度分析一个领域的某个问题,直接给未来工作以启示。经典例子是迁移学习领域的著名理论工作 Analysis of representations for domain adaptation,后续该领域所有的理论工作都会引这篇文章。
非常充分的实验。从实验角度分析领域的若干问题并给出相应的结论。显然在深度学习时代这种文章太重要了。经典例子是迁移学习领域 2014 年的文章 How transferrable are features in deep neural networks。
提出一个新问题。开疆拓土式的工作当然值得一看。只是在这个 paper 爆炸的时代,可能越来越难以鉴别到底是不是 first work 了。审稿人不可能看过一个领域内所有子方向的 paper,这时候鸡贼的投稿人就欺负审稿人没看过然后说自己是一个新问题。审稿这种 paper 我的原则是狠狠打死,strong reject,然后把前人的工作甩给他。并且,随便捏造一个不存在的 setting 就说是新问题的 paper,手段也是非常高明的。到底什么是一个好的新问题,还需要更仔细地甄别。
已有问题下直接开创一个新的分支。这就厉害了,属于另起炉灶的工作。经典例子如 MAML、GAN、Flow 模型,完全是在开辟一个崭新的(灌水)方向。
往期精彩: