为数据披上隐形“斗篷”,如何收回部分数据隐私?
作者丨读芯术
来源丨读芯术(AI_Discovery)
可以有把握的说,到2020年,任何上传并发布到互联网上的照片都将通过面部识别技术进行分析。多年来,不仅Google和Facebook等公司对面部识别功能极为重视,Clearview AI等公司也一直注重地从公共互联网上捕获图像,以便将面部识别技术卖给警方。 现在,人工智能研究人员开始考虑技术如何解决这一现象带来的问题。现在,诸如“ PrivacyNet”,“ AnonymousNet”和“Fawkes”之类的算法为逃避公共网络的面部识别提供了一丝庇护。 这些算法并不是保护网络隐私的解决方案。但它们是一种工具,如果在线平台采用这些算法,可以对一些通过在线发布图片而丢失的隐私进行弥补。 Fawkes是一个基于芝加哥大学研究的反面部识别系统。该程序是对黑客团体“匿名者”(Anonymous)制作的的盖伊·福克斯面具(Guy Fawkes mask)的致敬,该程序试图限制他人使用在线发布的人脸图像。 Fawkes识别出这些看不见的特征,然后对其进行调整,消除了共性。 来源:Pexels
在训练面部识别算法来识别人的外表时,该算法可以通过在的不同训练图像中找到像素之间的关系来实现。这种关系可能就像人脸的几何形状一样简单,但是芝加哥大学的研究人员指出,这些算法还能识别出一个人外表的无形“特征”。 Fawkes识别出这些不可见的特征,然后对其进行调整,从而消除了图像之间的共性。由于这些微小的特征以前是肉眼不可见的,因此这些调整也是如此。这些细微的变化称为“斗篷”。 为了测试隐藏图像如何有效地欺骗了真实世界的算法,研究人员在隐藏图像上训练了Microsoft,Amazon和Google出售的面部识别算法。如果每个图像都是被掩盖的,他们发现“斗篷”是100%有效的。若隐藏训练数据中约15%的图像未被掩盖时,保护率则降至40%以下。 研究人员写道:“尽管我们并不认为这个系统本身可以在未来得以应用。但对于开发以用户为中心的隐私工具,以抵御未经授权的机器学习模型来说,这是必要且重要的第一步。” 取消身份识别的另一个方法就是对人的外观进行可见的更改,从而试图限制人和机器对图像的识别。尽管此用例看起来比较笨拙,但这种方法引起了Facebook和几所大学的关注。 特拉维夫的Facebook研究人员提议在实时视频中更改人的外观。这种方法通常使机器无法识别它们。 Facebook是通过使用视频和此人先前拍摄的照片来阻碍身份识别的。此算法旨在查找图像和视频之间的相似性,然后在生成新视频时尝试“避开”人脸的那些相似特征。这个想法几乎就像是个人定制的Deepfake,只不过是为了让视频上的人看起来不像同一个人。 研究人员写道:“例如,这使用户可以用匿名方式在公共论坛中留下自然的视频消息,而不用担心面部识别技术对其进行识别。” 有两篇论文,一篇来自天普大学,另一篇是来自罗切斯特大学和普渡大学的联合论文,都采用了不同的策略。它们会生成随机的假面并将其缝合到不想被识别的脸上。 “该技术旨在愚弄面部检测算法,该技术已被证明比人类具有更强大的能力,并且同时保持了人眼的感知质量。”普渡大学研究生,AnonymouNet论文的合著者李涛(Tao Li)说到。 作为一种编辑策略,该技术可用于保护那些出现在图像背景中的个人隐私。李涛说,识别的问题通常与数据发布有关,如何与数据集中的人共享图像而不共享个人身份的相关信息,只需要将人脸变得无法识别就足够了。 “尽管我们并不觉得这个系统本身可以在未来得到应用,但这是重要而必要的第一步。” 来源:Pexels
李涛还提供了个人使用该技术的理由。如果有一群人的照片发到了网上,而他们又不想让照片在网络上展示,则脸部替换技术足以改变此人的脸部特征。而无需使其模糊或破坏照片。 但是,不管图像是如何在个案的基础上进行编辑的,它都不会改变数据的一般价值,也改变不了居心不良的人滥用互联网的开放性来获取和转售数据。 乔治城大学法学院通讯与技术法律研究所的律师Lindsey Barrett说到:“在肯定这项研究价值的情况下,最重要的是重塑企业激励机制的结构性改革,而不是个人预防措施。”那些重大的结构改革才有助于有效禁止面部识别,防止侵犯隐私的数据收集。 她说:“注意隐私设置总比不注意好。但经过多年的研究和常识,我们知道,消费者数据被滥用的问题太大、太复杂,我们每个人独自的力量太微弱了。”
近期精彩内容推荐:
在看点这里好文分享给更多人↓↓