SimSwap:上海交大提出的新「换脸」算法
共 1488字,需浏览 3分钟
·
2021-06-23 15:00
博雯 发自 凹非寺 量子位 报道 | 公众号 QbitAI 侵删
多么“平平无奇”的一个换脸视频:
DeepFakes等一众换脸神器对此纷纷表示:就这?
但要是从网上的电影场景中,随意抓一把人物图像丢进去呢?
如果要换的这张脸正好在死亡角度,还做了个特别夸张的表情(或者干脆就是个表情包)呢?
水就有点深了哈。
这时,由上交大和腾讯一起搞出来的换脸框架SimSwap表示:让我来,我把握得住!
任意人脸都能换
一直身居换脸界C位的DeepFakes是怎么换脸的呢?
对于同一人脸的大量图片进行分析并提取特征,然后将这种特征替换到目标图像上。
这意味着什么呢?我换一个新脸,就得训练一个新模型。
但SimSwap提出了一种ID注入模块(IIM),在特征层面将源脸的身份信息迁移到目标脸,消除了原图特征信息与解码器的权重之间的相关性。
这样,就将特定人脸互换算法的结构扩展到了任意人脸互换框架。
也就像我们在开头展示的那样,不用精挑细选“正脸”或“中性表情,直接从网上抓一把人物图片,也能够完美换脸。
△所有的目标和原图像都被排除在训练集之外。
这就大大节省了要反复建立新模型的时间和金钱。
死亡角度、夸张表情也不怕
除了泛化到任意人脸变换之外,SimSwap也能更好地保存原图的脸部表情和角度。
不管是表情嘴巴嘟嘟,还是目标图和原图一侧一正两个角度,都能完美换脸。
就算是自下而上的死亡打光图(下图右边第三行),SimSwap也表现得更好。
其实,像这种目标脸属性(表情,姿势,灯光)比较复杂情况下造成的特征损失,一直是换脸面对的困难之一。
表情一夸张,或者处于极端角度和光线下时,就可能导致模糊和伪影。
这是因为在换脸任务中,常常要为了匹配原始特征而删除一些纹理信息,进而使图像的深层特征产生丢失。
此外,由于图像和它的属性在特征层面高度耦合,对于特征的直接修改也会造成图像属性性能的下降。
而SimSwap提出了一种弱特征匹配损失(Weak Feature Matching Loss),保证了输入目标和生成结果在高语义水平上的一致,并使判别器在最后几层计算特征匹配项。
这样,即使没有对特定属性做任何明确的约束,输入图像的属性也能被一种隐式的方式保留。
可以看到,虽然SimSwap在原特征表现上稍微落后,但涉及到脸部姿态这种复杂属性时,它的保存能力更好。
团队介绍
论文的两位共同一作都来自上海交通大学。
而通讯作者倪冰冰为新加坡国立大学博士,现任上海交通大学电子系的特别研究员和博导,主要研究方向是计算机视觉和多媒体计算。
论文地址:
https://arxiv.org/abs/2106.06340
下载地址:
https://github.com/neuralchen/SimSwap
猜您喜欢:
附下载 |《TensorFlow 2.0 深度学习算法实战》