语音助手正在偷偷录音!你的数据很可能因为一句“Hey,Siri”被盗

SegmentFault

共 1676字,需浏览 4分钟

 ·

2020-10-30 03:54


技术编辑:芒果果丨发自 思否编辑部
公众号:SegmentFault




近年来,诸如 Siri,Amazon Alexa,Google Assistant和 Cortana 之类的语音助手已经越来越受欢迎。国内厂商也纷纷推出了自己的智能语音助手,比如小度、天猫精灵、小爱同学等等。


这些智能语音助手有的是智能音箱,有的置于其他智能硬件内部,许多用户都会通过与这些智能语音助手对话来让它们辅助自己完成一些工作,比如叫车、查询天气等等。


智能语音助手在为人们提供便利的同时,也引发了许多与隐私和安全性相关的问题。最近,佐治亚理工学院的研究人员发现,攻击者可以通过用户与智能扬声器的对话窃取其敏感数据。




语音助手窃取用户信息、篡改设备


随着语音助手在手机、电脑等众多智能设备上的普及,全球许多国家/地区的人每天都在与这些 AI 代理进行通信,要求他们在线搜索信息、发送电子邮件或消息,以及播放他们喜欢的歌曲等等。


虽然这些语音助手大大简化了我们使用智能手机、平板电脑和其他设备的方式,但它们也引发了许多与隐私和安全性相关的问题。


实际上,这些代理还可以用于收集有针对性的广告数据,甚至可以允许网络攻击者窃取用户的敏感信息或篡改其设备。





语音助手对用户信息的威胁是真实存在的


佐治亚理工学院的研究人员最近表明,恶意用户可以使用一种简单的攻击通过语音助手访问人们的个人信息。他们在 arXiv 上发表的一篇论文中强调了与使用对话代理相关的许多漏洞和风险。


进行这项研究的研究人员之一表示,“近年来,有很多关于智能音箱或语音助手意外记录附近人们之间的通话,并通过电话将其发送给联系人的新闻报道。”

研究人员称,他们开展这项研究是由于受损的电脑和语音助手中,新的威胁敏感
信息正在出现。“我们能够证明,这种威胁是真实存在的,存储在计算机上的数据可能通过语音助手的对话而被盗。



调高录音频率,隐秘传输用户数据


为了揭露语音助手的漏洞,研究人员设计了一种攻击方法,该攻击将通过电话提取用户的敏感信息。首先,他们将存储在用户设备中的数据转换为录音,并确保可以通过简单的方式传输这些录音。然后,他们通过将用户数据转换为双音频(DTMF)音调来实现这一点,因为该音调本质上是可以通过电话线传输的信号。

研究人员还提到,“我们还必须克服的另一项挑战是,使这种声音从计算机隐身地传输出去,以免使附近的人受到惊吓。我们通过将音调调制到非常高的频率(16 KHz)或超声波频率来实现,以使大多数人听不见。”



攻击者可以重建用户敏感数据


当用户的声音由智能音箱设备的内置麦克风录制时,由于麦克风的固有非线性(即声音的失真),自然会解调出这些录音的原始音调。

研究人员表明,这些音调可以传输到由攻击者控制的远程设备,然后攻击者可以重建其中包含的敏感数据。

研究人员说,“我们发现的攻击可以在不被人类注意到的情况下进行,这证明了从带有智能扬声器的受感染计算机中秘密数据泄露的可行性。”

即使智能扬声器离存储数据的计算机只有几英尺远,在真实的环境下,通过一个持续时间不超过 5 分钟的电话,也可以高精度地传输少量数据(如 1 千字节的数据)。



探索风险解决方案,制定防御措施


研究人员的实验表明,用户的个人数据可以很容易地通过智能扬声器传输到攻击者的设备。传输数据的速率取决于许多因素,包括用户计算机与智能扬声器之间的距离,背景噪声和载波频率(即数据传输所经过的波)。

这项最新研究证实了语音助手和智能扬声器的漏洞,而现有的防御措施和针对数据盗窃的安全措施并未解决这些漏洞。

研究人员在论文中讨论了有助于减轻这些风险的解决方案,他们计划在未来的研究中对其进行探索。

研究人员表示,在接下来的研究中,他们将制定策略来改善语音助手的安全性和隐私性,并计划探索针对此类攻击的可能防御措施。



- END -

浏览 2
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报