Gartner:Deepfake和生成式AI让我们进入零信任世界

雷锋网

共 1605字,需浏览 4分钟

 ·

2021-01-26 12:21


报告预测,AI将产生巨大的社会影响,以至于我们不确定何时可以信任自己的眼睛。

作者 | 包永刚
Gartner发布了一系列《Predicts 2021》研究报告,其中一份报告概述了人工智能(AI)将在未来几年引发的重大影响,包括广泛的道德和社会问题。
Gartner的五位分析师在《2021年预测:人工智能对人类和社会的影响》的报告中预测了2025年将会产生的变化,该报告特别关注了所谓的人工智能的二级后果,这种后果是非预期的新技术的成果。
例如,生成式AI现在可以创建出实际上并不存在的人物和物体的非常逼真的照片。
Gartner预测,到2023年,将有20%的账户被这种由AI产生的Deepfake接管。报告指出:“可以创建和生成超逼真的内容的AI能力,将对人们相信自己的眼睛所看到的产生变革性的影响。”
该报告从AI市场的5个角度进行了预测,并就企业如何应对和适应这些未来的挑战提出了建议: 
  • 到2025年,预先训练的AI模型将主要集中在1%的供应商中,这将使AI的负责任地使用成为社会关注的问题

  • 在2023年,成功的账户接管攻击将有20%使用Deepfake,它将会成为社会工程学攻击的一部分

  • 到2024年,将有60%的AI提供商会将缓解危害/滥用行为作为其软件的一部分

  • 到2025年,将有10%的政府通过使用合成AI来避免隐私和安全问题 

  • 到2025年,工作场所75%的对话将被记录和分析,以用于增加组织价值和评估风险






这些分析中的每一个都足以使AI观察者引起足够的关注,如果将这些预测结合起来时,就可以勾勒出未来的严峻形势,其中涉及道德问题,潜在的AI滥用以及工作场所隐私的丧失。 

1


如何应对 

如果Gartner的分析师的预测准确无误,那么关于AI带来的隐私和真相的影响的担忧必将成为未来几年的主要话题,成功的企业将需要准备迅速适应这些担忧。
该报告中的一个重要的主题是,在依赖AI的公司(无论是服务还是产品)中建立道德委员会。Gartner说,对于计划记录和分析工作场所对话的企业,尤其要注意这一点,应建立具有员工代表的董事会,以确保公平使用对话数据。
Gartner还建议企业建立负责任的AI使用标准,并优先考虑“可以证明AI能够清晰发展和解决相关社会问题”的供应商。
至于围绕Deepfake和生成式AI的安全问题,Gartner建议组织安排有关Deepfake的培训。报告说:“我们现在正在进入零信任的世界。除非使用加密的数字签名证明它是经过认证的,否则任何事物都不能被信任。” 
该报告有很多内容值得关注,有数据说,最好的Deepfake检测软件从长期来看将以50%的识别率达到顶峰。还预测到2023年,一家大型美国公司将采用对话分析来确定员工薪酬。这些分析中有很多需要担心的地方,也包括潜在的解决方案。
雷锋网编译,原文链接:
  • https://www.techrepublic.com/article/gartner-the-future-of-ai-is-not-as-rosy-as-some-might-think/ 


往期推荐


▎华为再次强调!鸿蒙 OS 不是安卓和 iOS 的拷贝,今年目标覆盖 3-4 亿台设备
▎国产芯片并购潮,即将到来
▎机器人“用工潮”
▎大量网友批微信变得臃肿像QQ ,张小龙现身回应;任正非内部讲话曝光:成功的标志是盈利;恒大汽车引入260亿巨额投资





现在参与问卷调查,即有机会抽取:幻想小旺蓝牙音箱、AESIR 无线蓝牙耳机、医用外科口罩(50个/份)、医用口罩(10个/份)、腾讯QQ限量版公仔,500份奖品已备好,赶快点击阅读原文参与吧! 


浏览 34
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报