《Pattern Recognition Letters》特刊通知

极市导读
本期特刊旨在推动深度学习模型的攻击与防御研究,包括快速对抗样本生成、不可感知数据投毒、精准数据重构、基于深度学习的鲁棒可溯源水印、对抗样本防御等。 >>加入极市CV技术交流群,走在计算机视觉的最前沿
主题:深度学习模型安全
简介:
深度学习已广泛应用于自然语言处理、计算机视觉、数据安全等诸多领域。为学习到有效的深度模型,需花费大量时间和精力来收集数据与分配计算资源。这些模型可能会被非法使用,从而牺牲模型所有者的权益。另一方面,深度学习模型也容易受到对抗样本或毒化数据的攻击。这严重降低了深度学习技术的准确性和可靠性。为此需进行深度学习模型安全研究,保障模型的真实性和可靠性,以抵御各种攻击。该研究还处于起步阶段,虽然已取得了一定进展,但要为基于深度学习的应用开发稳健可靠的模型还远远不够。
本期特刊旨在推动深度学习模型的攻击与防御研究,包括快速对抗样本生成、不可感知数据投毒、精准数据重构、基于深度学习的鲁棒可溯源水印、对抗样本防御等。
相关研究人员可通过原创研究来展示他们的工作。所有提交的论文将经过同行评审,并根据其质量和与本期主题的相关性进行选择。本期主题包括但不限于:
低复杂度的对抗样本生成 压缩多媒体数据的对抗样本生成 新兴数据的对抗样本生成 不可感知的高效数据投毒 精准数据重构 鲁棒神经网络水印 神经网络指纹 神经网络认证与篡改检测 对抗训练的有效策略与模型 精确对抗样本检测 广义鲁棒表示学习的假脸检测
重要日期:
投稿截止:2022年6月20日
评审结果反馈:2023年1月31日
客座编辑:
冯国瑞,上海大学,中国,邮箱:grfeng@shu.edu.cn
李晟,复旦大学,中国,邮箱:lisheng@fudan.edu.cn
赵健,北方电子设备研究所,中国,邮箱:zhaojian90@u.nus.edu
王正,东京大学,日本,邮箱:wangz@g.ecc.u-tokyo.ac.jp
更多信息请见:https://www.journals.elsevier.com/pattern-recognition-letters/call-for- papers/recent-advances-in-deep-learning-model-security
欢迎各界学者踊跃投稿!
如果觉得有用,就请分享到朋友圈吧!
公众号后台回复“目标跟踪”获取目标跟踪综述~

# CV技术社群邀请函 #
备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)
即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群
每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~
