涉嫌抄袭十篇,这个论文作者胆子太大了

共 2045字,需浏览 5分钟

 ·

2022-06-30 02:21

编辑:机器之心
大家好,我是DASOU。

这两天我也是在知乎吃 CVPR Oral 一篇论文被指责大面积抄袭的瓜,目前作者已经是退稿了。

人工智能顶会 CVPR 2022 的最后一天,一篇重点论文意外火了,但不是以正经的方式。

这天,YouTube 上出现了一个新的账号,它的目的非常单纯,就是为了指证一篇 CVPR 2022 Oral 论文涉嫌抄袭。

2022 年的 CVPR 大会的投稿量达到 8161 份,共有 2064 篇论文被接收,接收率为 25.28%,在被接收的论文中,有 342 份被选为 Oral(口头报告)论文。



这篇被指抄袭的 Oral 论文题为「E2V-SDE: From Asynchronous Events to Fast and Continuous Video Reconstruction via Neural Stochastic Differential Equations」,由来自首尔大学和韩国科学技术研究院的作者合作完成。


论文地址:https://arxiv.org/abs/2206.07578

论文提出了一种应用于事件相机的新模型。

事件相机对场景中每个像素的亮度变化进行异步且独立的响应。这些相机具有鲜明的特点:高动态范围 (HDR)、高时间分辨率和低功耗。事件相机的结果应该被处理成计算机视觉任务的替代表征。然而,事件相机容易受噪音影响,并且在事件很少的区域内性能不佳。近年来,许多研究人员试图从事件中重建视频。然而,由于缺乏来自不规则和不连续数据的时间信息,很多工作都不能提供高质量的视频。

在这篇论文中,作者提出了一种称为 E2V-SDE 的新模型,其动力学由随机微分方程 (SDE) 在潜在空间中控制。E2V-SDE 可以在任意时间步长上快速重建图像,并对看不见的数据做出实际预测。


此外,该研究声称成功地采用了多种图像合成技术来提高图像清晰度和时间一致性。通过对模拟和真实场景数据集进行广泛的实验,研究者验证了 E2V-SDE 模型在各种视频重建设置下都优于 SOTA 方法。在图像质量方面,LPIPS 分数提升高达 12%,重建速度比 ET-Net 快 87%。


在一段 7 分 16 秒的视频里,爆料者列举了十几篇疑似被抄袭的论文,并标出了疑似抄袭的具体段落。


这些段落广泛分布在 Introduction、Preliminaries、Method 等不同章节。

E2V-SDE 论文段落(来自 Introduction 章节)。

疑似被抄袭论文《Latent ODEs for Irregularly-Sampled Time Series》段落。

E2V-SDE 论文段落(来自 Preliminaries 章节)。

疑似被抄袭论文《Continuous Latent Process Flows》段落。

E2V-SDE 论文段落(来自 Preliminaries 章节)。

疑似被抄袭论文《Continuous Latent Process Flows》段落。


E2V-SDE 论文段落(来自 Method 章节)。

疑似被抄袭论文《Vid-ODE: Continuous-time Video Generation with Neural Ordinary Differential Equation》段落。

疑似被抄袭的论文包括但不限于视频列表中提到的这些(列表有重复):


论文「抄袭」得如此明显,人们除了声讨作者以外,也纷纷吐槽了 CVPR 作为计算机视觉顶会审稿的严谨程度。

当然,开盒视频走讽刺路线,网友们的评论也充满了快乐的气氛:


图源:知乎回答 https://www.zhihu.com/question/539378810/answer/2543500074

据 reddit 网友透露,论文的第一作者曾就该事件给出过回应(后来可能删除了),表示自己的研究其实和之前的文章在很多方面还是有区别的,视频中提到的一些段落其实是引用,他需要时间去核实事实。


但很快,这个第一作者就被自己的队友「卖」了。在一份道歉的帖子中,合著者之一表示,自己很抱歉没有尽到检查、核实的义务,没有提前发现第一作者的剽窃行为,目前,他们的导师正在联系 CVPR 主席撤回该论文。


随后第一作者证实文章已撤稿。


除了文章本身造成的恶劣影响,合著者把责任都推给第一作者的行为也引来了大家的批评。

「只分享荣耀,不承担责任,还有这么好的事儿?」


由此可见,很多合著者可能根本都没有看过论文。


希望在大会方核实之后,事件能得到应有的处理。

参考内容:
https://www.zhihu.com/question/539378810
https://www.reddit.com/r/MachineLearning/comments/vjkssf/d_how_to_copy_text_from_more_than_10_previously/
浏览 34
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报