苹果回应“远程扫描用户相册”:声明被广泛误解,未设后门,功能仅美国可用

iOS开发

共 1974字,需浏览 4分钟

 ·

2021-08-18 11:59

👇👇关注后回复 “进群” ,拉你进程序员交流群👇👇
博雯 发自 凹非寺
量子位 报道 | 公众号 QbitAI

“iOS 15将远程扫描用户相册,以检测儿童色情图片。”

在这则让网友炸锅的消息宣布一周后,苹果官方站出来回应了。

苹果的软件总监Craig Federighi在这周五接受采访时表示:

我们的声明被广泛误解了。

对于隐私保护组织的抗议,以及“苹果在其软件中开了一个安全后门”的说法,Craig Federighi则“感到遗憾”:

事后看来, 同时引入的两个特性是造成这种困惑的原因之一。

未设后门,仅在美国可用

Federighi所说的两个特性中,图像检测是引发最广泛争议的一项功能。

苹果官网的对此的原文描述是:

iOS与iPadOS将搭载新技术,对存储在iCloud照片里的已有的儿童性虐图像进行检测。

“在设备端对图片进行检测”——这一行为让很多用户认为自己的隐私受到了侵犯。

而Federighi则解释:

首先,这一功能必须开启iCloud照片才能使用。

也就是说,尽管所有的事情都是在设备上完成的,但苹果只分析存储在iCloud照片中的图片。

完全本地存储的图像不参与这个过程。

其次,并非是“扫描相册“,而是“匹配照片”。

长期以来,美国国家失踪和被剥削儿童中心(NCMEC)维护着一个已知的非法虐待儿童图像的数据库。

它将这些数据存储为散列数据,也就是非法材料的数字“指纹”。

而苹果的新功能,就是将用户设备里的图片与这些特定的“指纹”进行匹配

iPhone不会查看你孩子洗澡的照片或色情内容。……它不会知道关于你的账户和其他照片的任何信息。

Federighi还表示:

用户必须有30张以上的图片被匹配,设备才会被锁定,或触发报警等相关功能。

而最后,苹果公司也表示,这一功能将首先在美国部署。

有些用户并不买账

而对于苹果的这番解释,有些网友并不买账:

他们试图将其描述成一个公关失误,但这不是,这是对先前承诺的背叛。

仅限iCloud照片就是个笑话,没有人会那样使用iPhone。

不过有网友表示这似乎可以理解:

美国法律规定他们要对自己的主机负责,而且是在合理的、可自由支配的程度上。据我所知,几乎每家科技公司都会出于这个原因对CSAM进行扫描。

而也有网友认为,苹果所遇到的问题根本不在于“声明造成了用户困惑”。

而是多年以来苹果一直将自己作为一家“隐私保护”公司来宣传,然后现在向用户宣布“要扫描他们的设备”。

这也就无怪用户会产生困惑,甚至出奇地愤怒了。

参考链接:
[1]https://www.qbitai.com/2021/08/27243.html

[2]https://www.reuters.com/technology/exclusive-apples-child-protection-features-spark-concern-within-its-own-ranks-2021-08-12/
[3]https://news.ycombinator.com/item?id=28172269
[4]https://www.bbc.com/news/technology-58206543

苹果软件总监采访视频:
https://www.wsj.com/video/series/joanna-stern-personal-technology/apples-software-chief-explains-misunderstood-iphone-child-protection-features-exclusive/573D76B3-5ACF-4C87-ACE1-E99CECEFA82C?mod=hp_lead_pos5

-End-

最近有一些小伙伴,让我帮忙找一些 面试题 资料,于是我翻遍了收藏的 5T 资料后,汇总整理出来,可以说是程序员面试必备!所有资料都整理到网盘了,欢迎下载!

点击👆卡片,关注后回复【面试题】即可获取

在看点这里好文分享给更多人↓↓

浏览 10
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报