清华本科、港科大准博士被指论文抄袭,网友:这是有技巧的“洗稿”

视学算法

共 4249字,需浏览 9分钟

 ·

2021-08-19 17:40

点击上方视学算法”,选择加"星标"或“置顶

重磅干货,第一时间送达

本文来源:整理自新智元、Reddit、知乎等


不是吧?清华自动化本科,香港科技大学硕士生发表的顶会论文竟然是抄的?

 

而且抄袭对象还是另一篇顶会论文?

 

近日,眼尖的网友发现两篇分别发表在 ICML 2021 和 ICCV 2021 两大顶会的论文有着惊人的相似之处!


PS:ICCV、ICML均为中国计算机学会在人工智能方向推荐的A类国际学术会议,为世界顶级的学术会议。

 

ICML 2021上发表的论文

 

ICCV 2021上发表的论文


而随着更多网友对论文的分析,有人指出这是一种很高明的“洗稿”技巧,Reddit上还有网友跑去了「抄袭者」的网站上看了作者的资料,发现这位作者已经发表过12篇顶会论文,而且还是准博士生,也不禁怀疑是不是一直都有这样的操作……


 


舆论关注之下,被指论文抄袭的两位作者及一作的导师在知乎上进行了回应。一作作者李铎发表致歉,表示将就此事“积极配合调查”,目前对该论文已采取撤稿措施。

顶会论文被指抄袭
网友指这是一种“技术活”抄袭

事情起源于法国国家科学研究中心博士后研究员Pierre Ablin在社交平台发的一篇推文。

他写道「模仿是最真诚的赞美形式?」

并贴出两篇内容有重合的论文。


这两篇论文分别是ICML 2021和ICCV 2021两大顶会的论文。

其中,被指控抄袭的论文一作,是清华自动化本科,香港科技大学的硕士,并且已获香港博士研究生奖学金计划(HKPFS)资助,将在2021年至2024年攻读博士学位。

导师还是张潼和陈启峰两位业界知名大佬,硕士两年在被视为计算机视觉方面的三大国际顶尖会议(ICCV、CVPR、ECCV)上共发表12篇论文,其中7篇一作,还曾在英特尔、商汤科技、字节跳动、英伟达实习。


此人还是之前小有名气的被CVPR 2021被接收的论文 Involution 模型的一作。


有着如此优秀、令绝大多数人羡慕不已的履历,还要搞论文抄袭,你敢相信吗?
而随着更多网友对被指控论文的分析,有人指出,这是一种“有技巧”的抄袭方式。

先来看看两篇论文的对比:

首先是论文的公开时间
 
「正主」ICML论文题为Momentum residual neural networks,作者是Michael Sander, Pierre Ablin, Mathieu Blondel and Gabriel Peyré。
 
今年2月15日首次上传至Arxiv,2月17日开源代码,7月22日发布论文最新版。
 
论文地址:https://arxiv.org/abs/2102.07870
开源代码:https://github.com/michaelsdr/momentumnet/
 
「被指抄袭」ICCV论文题为m-RevNet: Deep Reversible Neural Networks with Momentum,作者是Duo Li(李铎)和Shang-Hua Gao(高尚华)。
 
今年8月12日上传至Arxiv,而ICCV 2021论文收录的截止时间为3月17日。
 
论文地址:https://arxiv.org/abs/2108.05862(文章现已被删除)

雷同一:提出想法相同
 
两篇文章都提出了替换残差网络的前向方程方法,也同样讨论了这种方法的好处:由于ODE机制中的动量,可逆性和更大的表征容量减少了内存负载。
 
其中,利用的动量方程取代残差网络的前向方程
 
雷同二:图表相似
 
左图为ICML论文,右图为ICCV论文
 
雷同三:表格相似
 
表格中有3列内容是相似的:
closed form inversion = analytical reversal,
same parameters = architecture preservation
unconstrained training = end-to-en optimization.
 
而ICCV论文中只是添加了ResNet基线。
 
ICML论文
 
ICCV论文
 
雷同四:完全相同的初始数据集,四个嵌套环
 
两篇论文都引用了一篇前人的研究(https://arxiv.org/abs/1904.01681) ,在这篇引文中,作者使用了2个嵌套环。
 
以前从来没有人用过四个嵌套环作为说明。
 
ICML论文
 
ICCV论文
 
雷同五:主要贡献的公式相似
 
ICCV只是把ICML中的临界参数「gamma」换成了「1-mu」。
 
左图为ICML论文,右图为ICCV论文
 
雷同六:文内引用相同
 
左图为ICML论文,右图为ICCV论文

两篇文章同样以Maclaurin等人的算法作为关键的应用。
 
左图为ICML论文,右图为ICCV论文
 
雷同七:命题和证明相同
 
只不过符号略有变化,ICCV将时间导数表示为 ,而ICML中为 
 
 左图为ICML论文,右图为ICCV论文

雷同八:论文贡献列表相似
 
两篇论文的贡献列表都是大同小异,但很明显能够感觉到ICCV论文是「洗稿」的。
 
左图为ICML论文,右图为ICCV论文
 
雷同九:微积分方程完全相同
 
ICCV中的例1基本上就是修改了一下符号,微积分方程本质上完全相同。
 
另外,两篇文章解决方案中的顺序也完全相同。
 
 左图为ICML论文,右图为ICCV论文

左图为ICML论文,右图为ICCV论文
 
雷同十:同样是得到两个嵌套环的启发
 
左图为ICML论文,右图为ICCV论文 

这两篇论文说一样吧,又不是完全一样;要说是偶然,这得多巧合才能「偶然」出十个雷同点。

知乎上更有答主直接指出:这种洗稿方式,也算是项工作量巨大的“技术活”了。

知乎匿名用户回答

抄袭惯犯?

随着这篇论文被曝光,有人还扒出了这位一作疑似用这种手法在2020年就给CVPR投稿了一篇「照搬」2019年CVPR的文章。

CVPR 2019接收论文,作者来自清华大学。

论文地址:https://arxiv.org/abs/1906.00675
 
CVPR 2020接收论文,作者李铎。

论文地址:https://arxiv.org/abs/2003.10739

「其通篇向人们展示了如何包装出一篇顶会论文!实在是触目惊心,看得我头皮发麻。」
 

具体参照知乎回答:https://www.zhihu.com/question/480075870/answer/2064933570

作者和导师火速回应


这一事件迅速引起了极大的舆论关注,知乎上的相关话题甚至有100多万次浏览。

 
兹事体大,论文一作首先撤回了Arxiv上的论文,针对抄袭指控,该论文的二作、一作导师及一作先后在知乎作出回应。

导师致歉,表示自己有「不可推卸的督导不严的责任」。

一作导师、香港科技大学助理教授陈启峰表示,“对于李铎相关论文涉嫌严重学术不端,作为导师的我有不可推卸的督导不严的责任。”



并表示我们正在深入调查包括其他的论文在内的李铎的工作。在调查之后严肃处理相关问题,于近日公布相关处理措施。

二作:对于文章合作方面的不严谨,对于自己没有充分贡献但成为作者感到十分抱歉和羞愧。

该论文的二作高尚华,现为南开大学博士研究生,师从南开大学计算机科学与技术系系主任兼教授程明明。高尚华本科毕业于西安电子科技大学,研究兴趣包括计算机视觉和OAM通信。

二作作为涉事论文的改稿人,第一时间要求一作提供相关工作证据,但一作却声称数据已损坏。
 
面对这么可疑的解释,二作决定向ICCV反映相关情况,并要求撤稿。

二作在知乎上的澄清与道歉
 
二作向ICCV大会发送要求撤稿的邮件

其表示对该文章与ICML的工作相似性如此之高感到震惊和诧异。在仔细对比两篇工作后,我也很难相信这是两篇无关的同期工作。

我在这个事件中承认并深刻检讨我对于文章合作方面的不严谨,我对自己在没有对这项工作有充分贡献但成为作者感到十分抱歉和羞愧。

我深知我的错误是不可推卸的,我对因为这件事情造成伤害的ICML文章作者致以最诚挚的抱歉。我知道无论如何也无法挽回我的过错,我今后一定更加严格要求自己,严格规范自己与他人的文章合作,我也一定会尽自己最大努力做出有意义的工作来回报所有帮助和支持我的人。对不起大家,让你们失望了!

一作:已经采取了撤稿的措施。郑重道歉,积极配合调查。

针对抄袭指控,一作李铎17日下午作出致歉回应,并表示“已经采取了撤稿的措施。我在这里向大家郑重道歉,会在此事中积极配合调查。”针对“在行文过程中无意识地产生了相似之处”,他进行了解释。



我深知自己在科研中对于相关工作的调研出现了严重疏漏,导致与已有的工作出现了雷同,造成了不好的影响。我已经进行了深刻的自我反省和检讨,对于在此事件中受到伤害的Paper A的作者们,以及Paper B的合作者表示衷心的抱歉(高尚华同学仅参与到paper revision,对于细节不甚了解),同时对于给两位导师引起的不必要的麻烦和误解表示诚挚的歉意。鉴于已有相同idea的文章发表,我们目前已经采取了撤稿的措施。我在这里向大家郑重道歉,会在此事中积极配合调查,也虚心接受大家的批评!

对于大家密切关注的疑似抄袭的问题,我们根据Paper A作者提供的对比,仔细总结了两篇文章的异同以及我当时的构思:由于文章核心idea非常简明,导致在行文过程中无意识地产生了相似之处。

详细回应:https://www.zhihu.com/question/480075870/answer/2065820430

科研不易,且行且珍惜,愿大家都珍惜羽毛,不触碰学术不端的事。


点个在看 paper不断!

浏览 34
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报