欧盟AI监管新规:公共场合人脸识别将被限制、甚至禁止!
大数据文摘授权转载自AI科技评论
作者:陈彩娴
编辑:刘冰一
继2018年5月25生效的《欧盟一般数据保护条例》(江湖人称“GDPR”)后,今年4月21日,欧盟首次发布了针对人工智能技术的监管法规草案(如下),长达108页,探讨了企业与政府应该如何使用人工智能技术。
链接:
在这项草案中,AI的一系列应用范围都受到了不同程度的限制,包括自动驾驶、招聘简历过滤、银行贷款、入学筛选与测试评分等等,原因是:可能威胁到公民的人身安全与基本权利。
其中,计算机视觉应用最火的人脸识别技术,在公共场合的应用更是被高度禁止,除非是用于寻找失踪儿童、防止恐怖活动威胁或识别刑事犯罪人员等特殊情况。即使有特殊情况,在公共场合应用人脸识别技术,也需要获得司法机构或其他独立机构的授权,并有时间、地理范围和所搜索数据库的限制。
违反新法规的公司,可能会面临高达全球销售额6%(最高2000万欧元)的罚款。
欧盟AI监管法规详情
欧盟AI监管法规详情
根据欧盟的法规草案,对人工智能应用的监管根据风险等级,主要分为绝对禁止、高风险、较小风险与最小风险等四类。
1、绝对禁止的风险:对人类的安全、和权利构成明显威胁的AI系统将被禁止。这包括操纵人类行为,以违反用户自由意志的AI系统或应用程序,例如通过语音协助、鼓励未成年人进行危险行为的玩具,或供政府进行“社交评分”的系统。
2、高风险:被确定为高风险的AI系统包括有以下应用的AI技术:
重要的基础设施(例如运输),可能将公民的生命和健康置于危险中;
教育或职业培训,可能决定人们接受教育和专业课程(例如考试成绩);
产品的安全组件(例如AI在机器辅助手术中的应用);
就业,工人管理和自聘职业(例如招聘流程中使用的简历分类软件);
重要的私人和公共服务(例如信用评分,剥夺了公民获得贷款的机会);
可能会侵犯人们基本权利的执法活动(例如评估证据的可信度);
移民,庇护和边境管制管理(例如核实旅行证件的真实性);
司法和民主程序的执行(例如,将法律应用于具体事件)。
足够的风险评估和纾解系统;
提供给系统的高质量数据集可最大程度地降低风险和歧视;
记录活动以确保结果的可追溯性;
详细的文件,提供有关系统及其构建目标的所有必要信息,以供当局评估其合规性;
向用户提供清晰、充足的信息;
适当的人为监督措施,以最大程度地降低风险;
高水平的鲁棒性、安全性和准确性。
如何看待加强监管
如何看待加强监管