谷歌工人工会成立,AI女伦理专家离职只是一个导火线

共 3299字,需浏览 7分钟

 ·

2021-01-09 11:37



  新智元报道  

来源:连线

编辑:LQ

【新智元导读】近日,有消息称,400多名谷歌员工已经成立了自己的工会Alphabet Workers Union,工会成立的目的主要是为少数族裔群体发声,上个月,Timnit Gebru的离职引发了员工对谷歌少数族裔员工待遇的批评风暴。其实在工会成立消息放出的前几天,Timnit Gebru的谷歌前同事、谷歌AI伦理部门的高级研究员Alex Hanna和另一名曾经帮助领导谷歌劳工组织的NYU教授Meredith Whittaker就在写给《连线杂志》的一篇文章中透露了谷歌工会的信息。


在秘密组织了大半年之后,上个月,400多名谷歌员工选出了一个7人组成的委员会,最终成立了他们自己的工会Alphabet Workers Union.

 

 

这个工会与传统工会有所不同,它无法与公司就合同问题进行谈判,但这也不是他们成立的初衷,他们的初衷就是要为少数族裔群体发声
 
上个月,Timnit Gebru的离职引发了对谷歌少数族裔员工待遇的批评风暴。
 
其实在工会成立的消息放出来的前几天,Timnit Gebru的谷歌前同事谷歌AI伦理部门的高级研究员Alex Hanna和另一名曾经帮助领导谷歌劳工组织NYU教授Meredith Whittaker就在写给《连线杂志》的一篇文章中透露了谷歌工会的信息。

 

 

技术行业需要工会


文章指出了Timnit Gebru离职暴露了人工智能存在的危机,并提出三点建议,第一点就是成立工会。文中说:
 
首先,技术员工需要一个工会。员工需要有组织,这是变革和问责的关键,也是少数能够反击大公司的力量之一。在科技行业尤其如此,因为许多员工都是炙手可热的专业人才,可替代性也很低,他们的力量非常强大
 
工会可以起到制止报复和歧视的作用,也可以成为反对违背道德使用技术做法的重要力量。
 
例如,亚马逊员工对气候变化的抗争,以及谷歌员工对人工智能用于军事用途(Project Maven)的抵制,这些都改变了公司的政策,展示了自发组织的技术员工的力量。

 

 

要想有成效,工会组织必须建立在反种族主义和跨阶层团结的基础之上,对哪一类人才算是技术工作者要有全面的认识,并致力于将保护和提升所有BIPOC(黑人、原住民和有色人种)技术工作者的地位放在第一位。

 

其他建议:资金支持、立法保护


第二点建议是:技术员工需要保护和资金,这样技术员工可以在公司之外的地方不受公司影响地从事重要研究。

不是每个公司都有一个站出来反击所谓的研究审查的「Timnit Gebru」.要保证研究人员在公司以外的地方做研究时有更大的权限使用目前被称为「公司机密」的技术,比如训练集的使用权限,数据标注和内容审核的规定和步骤。

公司以外进行的研究也必须要把支持BIPOC,女性以及其他曾经被排除在外的研究人员和观点放在首位,要认识到种族和性别同质性是造成AI领域内伤害的源头。

而要做到这些就需要大量资金,可以通过向公司征税」来筹集。


最后一点是呼吁相关政府部门对人工智能领域加强监管。 联邦、州及地方政府的立法部门要通过立法在数据收集和AI的应用方面来保护隐私并保证征得当事人的同意。


还要加强对员工、吹哨人的保护,保护BIPOC员工不受歧视,保证最容易受到AI系统风险伤害的弱势群体能够做出反抗。

 

Timnit Gebru事件反应出的人工智能行业的危机


在列举建议之前,两位作者就Timnit Gebru的离职做了分析,指出Timnit Gebru的遭遇揭示了AI研究领域存在的「双重危机」

AI领域由一群精英主导,主要是白人主要由行业内的大公司控制和资助,比如微软, Facebook,亚马逊,IBM,当然还有谷歌。Gebru 被解雇,组织年青一代围绕AI树立必要的护栏的「文明政治」被撕裂,人工智能行业打工人的种族同质性和企业无效的多样性项目成为讨论的核心话题。

 

 

但这种情况也清楚地表明,「无论谷歌的承诺看上去多么诚恳,企业资助的研究永远不能脱离权力的现实,也不能脱离收入和资本的流动。」

这些问题和我们每个人都息息相关。现在AI应用扩大到医疗、刑事司法、教育等领域,研究人员和倡导者提出了紧迫的担忧。这些制度作出的决定直接影响到生活,同时又植根于加强种族歧视历史的组织中。

人工智能系统的权力也集中在那些设计和使用它们的人手中,而隐藏在复杂计算表面之后的责任(和义务)却被模糊化了。风险是巨大的,动机是决然错误的。

文中还指出了限制AI研究人员的能力和建立有效保护的结构性障碍。因为由于AI预测和决定而受害的主要是BIPOC,妇女,宗教和性别少数群体,以及穷人。而受益于AI的主要是企业和白人男性研究人员和开发人员。

「面部识别」为例,对深色皮肤的人更不容易识别,而这些面部识别系统主要出现在黑人社区,相反在识别率高的白人社区,这些系统已经成功禁止和抵制了面部识别系统。


而我们需要关注这些因为AI技术应用而受到伤害的人们。

谷歌对待 Gebru 的方式越来越清楚地表明,当关键工作阻碍其商业激励时,该公司的「优先事项」是什么。这就可以看出来,确保人工智能系统对弱势群体负责几乎是不可能的。
 
科技公司与「表面上独立」的学术机构之间的密切联系,进一步削弱了对该行业的监督。
 
来自企业和学术界的研究人员一起发表论文,并在同一个会议上接触,一些研究人员甚至在科技公司和大学身兼两职这模糊了学术研究和企业研究之间的界限,并掩盖了支持此类工作的激励措施。
 
这也意味着,这两个群体看起来非常相似ーー学术界的人工智能研究与企业研究一样,面临着有害的种族和性别同质化问题。此外,顶级的计算机科学部门接受大量来自Big Tech的研究资金。

 


 
Gebru的离职表明,这种做法再次出现了。像谷歌这样强大的公司有能力收集、最小化或压制对其大规模人工智能系统的批评,这些系统是其利润动机的核心。
 
事实上,根据路透社最近的一份报告,谷歌的领导层甚至指示研究人员,在研究对谷歌底线敏感的技术和问题时,要「采取积极的态度」
 
Gebru的离职也凸显了其他公众所面临的危险,如果我们允许一个精英的、同质的研究队伍由那些不太可能经历人工智能负面影响的人组成,从企业内部驱动和塑造关于人工智能的研究。
 
少数从人工智能扩散中获益的人正在塑造学术界和公众对这些系统的理解,而那些最有可能受到伤害的人却被排除在知识创造和影响之外。这种不平等遵循可预测的种族、性别和阶级界限。
 

文章最后写到,这场危机清楚地表明,尽管受到企业影响力的制约,并且受到一群特权研究人员的支配,当前的人工智能研究生态系统,无法提出和回答对于那些承受人工智能系统危害的人来说最重要的问题。

 

「公众意识的研究和知识创造」本身就很重要,除此之外,它还为人工智能的民主监督和治理决策制定者提供了基本信息,也为那些能够反击有害技术和掌握这些技术的人提供了基本信息。
 
支持和保护有组织的技术工人,扩大对人工智能的研究领域,在企业影响的阴影之外培育资源充足和包容性强的研究环境,这些都是为解决这些紧迫问题提供空间的重要步骤。

 

关于作者


 Alex Hanna和Timnit Gebru之前同为谷歌AI伦理部门的员工,此前Hanna曾代表AI伦理部门向谷歌管理层发联名信,要求副总裁Megan Kacholia和Jeff Dean向Timnit Gebru道歉,并让Gebru以更高职级回归谷歌。

另一名作者Meredith Whittaker是纽约大学 Minderoo研究教授,纽约大学AI Now研究所主任,长期从事技术工作,曾帮助领导谷歌的劳工组织。



参考链接:

https://www.wired.com/story/timnit-gebru-exit-google-exposes-crisis-in-ai/




浏览 37
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报