苹果回应“远程扫描用户相册”:声明被广泛误解,未设后门,功能仅美国可用
共 1974字,需浏览 4分钟
·
2021-08-18 11:59
博雯 发自 凹非寺
量子位 报道 | 公众号 QbitAI
“iOS 15将远程扫描用户相册,以检测儿童色情图片。”
在这则让网友炸锅的消息宣布一周后,苹果官方站出来回应了。
苹果的软件总监Craig Federighi在这周五接受采访时表示:
我们的声明被广泛误解了。
对于隐私保护组织的抗议,以及“苹果在其软件中开了一个安全后门”的说法,Craig Federighi则“感到遗憾”:
事后看来, 同时引入的两个特性是造成这种困惑的原因之一。
未设后门,仅在美国可用
Federighi所说的两个特性中,图像检测是引发最广泛争议的一项功能。
苹果官网的对此的原文描述是:
iOS与iPadOS将搭载新技术,对存储在iCloud照片里的已有的儿童性虐图像进行检测。
“在设备端对图片进行检测”——这一行为让很多用户认为自己的隐私受到了侵犯。
而Federighi则解释:
首先,这一功能必须开启iCloud照片才能使用。
也就是说,尽管所有的事情都是在设备上完成的,但苹果只分析存储在iCloud照片中的图片。
完全本地存储的图像不参与这个过程。
其次,并非是“扫描相册“,而是“匹配照片”。
长期以来,美国国家失踪和被剥削儿童中心(NCMEC)维护着一个已知的非法虐待儿童图像的数据库。
它将这些数据存储为散列数据,也就是非法材料的数字“指纹”。
而苹果的新功能,就是将用户设备里的图片与这些特定的“指纹”进行匹配。
iPhone不会查看你孩子洗澡的照片或色情内容。……它不会知道关于你的账户和其他照片的任何信息。
Federighi还表示:
用户必须有30张以上的图片被匹配,设备才会被锁定,或触发报警等相关功能。
而最后,苹果公司也表示,这一功能将首先在美国部署。
有些用户并不买账
而对于苹果的这番解释,有些网友并不买账:
他们试图将其描述成一个公关失误,但这不是,这是对先前承诺的背叛。
仅限iCloud照片就是个笑话,没有人会那样使用iPhone。
不过有网友表示这似乎可以理解:
美国法律规定他们要对自己的主机负责,而且是在合理的、可自由支配的程度上。据我所知,几乎每家科技公司都会出于这个原因对CSAM进行扫描。
而也有网友认为,苹果所遇到的问题根本不在于“声明造成了用户困惑”。
而是多年以来苹果一直将自己作为一家“隐私保护”公司来宣传,然后现在向用户宣布“要扫描他们的设备”。
这也就无怪用户会产生困惑,甚至出奇地愤怒了。
参考链接:
[1]https://www.qbitai.com/2021/08/27243.html
[2]https://www.reuters.com/technology/exclusive-apples-child-protection-features-spark-concern-within-its-own-ranks-2021-08-12/
[3]https://news.ycombinator.com/item?id=28172269
[4]https://www.bbc.com/news/technology-58206543
苹果软件总监采访视频:
https://www.wsj.com/video/series/joanna-stern-personal-technology/apples-software-chief-explains-misunderstood-iphone-child-protection-features-exclusive/573D76B3-5ACF-4C87-ACE1-E99CECEFA82C?mod=hp_lead_pos5
-End-
最近有一些小伙伴,让我帮忙找一些 面试题 资料,于是我翻遍了收藏的 5T 资料后,汇总整理出来,可以说是程序员面试必备!所有资料都整理到网盘了,欢迎下载!
面试题
】即可获取