大数据文摘出品Timnit Gebru是靠人工智能伦理研究走进大众眼帘的,出生于斯坦福大学人工智能实验室,其博士生导师是著名AI学者李飞飞。获得博士学位后,Timnit Gebru入职谷歌,仅用两年时间便升至L6 Research Scientist。随着AI研究井喷式发展,AI伦理审查也受到了广泛的重视,比如让Timnit Gebru一战成名的研究就是她的一项发现——面部识别软件在35%的情况下会错误识别深肤色女性,而这项在白人男性身上运行得几乎完全准确。作为AI界久负盛名的NeurIPS会议也迈出了伦理审查的第一步,神经信息处理系统(Neural Information Processing Systems,NeurIPS)会议受疫情影响在线举行,会议首次要求提交论文的作者同时提交一份声明,说明他们的研究可能对社会产生的更广泛影响,包括任何可能的负面影响。会议组织者还任命了一个评审小组,负责审查引发伦理问题的论文,这个过程可能导致某些论文被拒绝。9467篇论文提交,290篇被标记,4篇因伦理原因被拒这次的NeurIPS会议共受到了9467份论文,审查人员主要根据提交材料的研究价值进行评估,但有通过初步审核的论文还要由 Gabriel 领导的一个单独的道德委员会进行全面审查。Facebook人工智能研究中心的计算机科学家马克·奥雷里奥·兰扎托(Marc’ Aurelio Ranzato)是这次NeurIPS会议的主席之一,他表示,在290篇被标记的论文中,有4篇最终因伦理原因被项目主席拒绝。添加伦理审查过程的做法参考的是Future of Computing Academy的做法,该学院由布伦特 · 赫克特领导,他是微软和美国西北大学研究技术对人类影响方面的专家。2018年,赫克特和他的合作者提出,要求计算机科学出版物陈述其研究的潜在副作用和可能出在的意外使用。比如Ian J. Goodfellow在2014年提出GAN的时候并不会想到这项技术会用于AI生成色情图片,而要求作者提供陈述的举措将迫使技术的发明者不得不去思考自己的技术可能会带来的社会影响。谷歌的计算机科学家凯瑟琳•海勒(Katherine Heller)表示: “总体而言,我认为伦理程序做得很好。”“我认为,即使是让人们开始思考这些问题,也有很大的价值,”加拿大多伦多行业监督机构技术调查(Tech Inquiry)的创始人杰克•鲍尔森(Jack Poulson)表示。他补充说,这项政策可能有助于改变该领域的文化。尽管NeurIPS算是迈出了第一步,但是如何判断一篇文章有没有伦理上的风险呢?NeurIPS的伦理评审小组表示,目前这是一个难题,审查人员没有得到关于什么会构成对社会的危害的具体指导。举个例子,NeurIPS会议的主席之一Ranzato说,一些评审标记了那些利用数据库收集未经明确同意的个人信息或照片的论文。这类数据库的使用广受批评,但会议组织者并没有将这一问题单独提交给审查人员,也没有提供有问题的数据库清单。不过,Ranzato补充说,审查政策是朝着正确方向迈出的一步。“没有什么是完美的,但现在比以前更好了。”大多数有问题的问题应该已经被发现,因为三个匿名的同行审稿人中的任何一个都可以标记一篇论文,主题领域的主席也可以。伦理评审小组负责人Gabriel表示: “其中任何一方发出的‘信号’都足以启动审查程序。”不过,他承认,这一过程并非绝对可靠。例如,如果所有的评论员碰巧都是男性(在男性主导的领域并不少见) ,他们可能无法充分评估算法是否会对女性产生负面影响。“我不能排除出现这种盲点的可能性。”Gabriel说。NeurIPS会议的最后一天还举行了一次特别会议,重点讨论人工智能对社会的广泛影响,大家一起讨论了解决行业问题的方法。微软在纽约市的研究员 Hanna Wallach 呼吁研究人员从研究的早期阶段评估和减轻任何潜在的对社会的危害,而不是预想开发和市场最终产品的同时会做这种道德方面的工作。为什么一定要程序员自己区考虑伦理因素,而不是交给专门的伦理审查专家呢?她表示,道德思维应该纳入机器学习领域,而不是简单地外包给道德专家,否则“其它学科可能成为警察,而程序员则试图逃避它们”。https://www.nature.com/articles/d41586-020-03611-8
https://www.nature.com/articles/d41586-020-03188-2