谷歌员工又发联名信起义了:Jeff Dean道歉,AI伦理学家Timnit Gebru回归

新智元

共 2910字,需浏览 6分钟

 ·

2020-12-21 10:09



  新智元报道  

来源:外媒

编辑:LQ

【新智元导读】谷歌「解雇AI伦理学家Timnit Gebru」事件持续发酵,不仅引发了员工起义,也引起了国家劳工部门的诉讼,可谓是内忧外患。


圣诞假期临近,但谷歌却被持续的内忧外患所笼罩。


近日解雇AI伦理学家Timnit Gebru导致了谷歌内部员工起义的爆发;在解雇事件当天,谷歌还遭美国国家劳工关系委员会(NLRB)提起诉讼,其指控谷歌非法监视雇员,报复性解雇有兴趣加入工会的雇员,也和Timnit Gebru有关。


周三,美国包括德克萨斯州在内的10个州又指控谷歌「滥用在线广告方面的垄断地位」,直指公司利润这块「大肥肉」。


完全没有过节的心情了!



自12月9日,谷歌CEO皮采在一封内部邮件中道歉之后,谷歌方面对于Timnit Gebru的「离开」没有再作任何公开表态。Jeff Dean也在后来的一封邮件中表示「关于此事1月公司会有最新决定」,大家再等等。


或许领导也是想要为大家保留一点过节的气氛。


但员工一点不买账。


昨天,Gebru的同事Alex Hanna代表谷歌AI伦理研究部门将一封联名信交给了谷歌CEO皮采和其他一些谷歌领导。


联名信的主要诉求如下:


  1. 公司必须进行「结构性改革」,以保证谷歌AI伦理研究工作可以继续进行;


  2. 不再向谷歌副总裁Megan Kacholia汇报工作,她和Dean还要道歉;


  3. 「Gebru回归」,并为其提供比此前「更高的薪资」


  4. 公开承诺「学术诚信」


  5. 管理层进行「种族素养培训」


这次「起义」归根到底还是Timnit Gebru的那篇论文引发的。


那么导致事情发生的根源------Gebru的那篇论文究竟写了什么,竟然引起如此轩然大波。


Gebru的论文


引发这场争论的论文名为《论随机鹦鹉的危险: 语言模型会不会太大? 》(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)(在问号后面还有一个鹦鹉表情),它将批判性的眼光投向了人工智能研究中最活跃的领域之一。



自2010年以来,谷歌等科技公司在人工智能领域投入了大量资金,当时研究人员发现,他们可以使用一种称为「机器学习」的技术,使语音和图像识别更加准确。一种叫做「深度学习」的方法通过将学习算法与更大的样本数据集以及更强大的计算机结合起来,得到了惊人的结果。


过去几年中,超大规模的语言机器学习模型出现,在回答问题或通过机器学习算法,消化从网络上搜集的数十亿字的任务上取得了重大进展。这些系统以语言的统计模式运作,不像人类那样理解这个世界,他们会犯一些对人类来说显而易见的错误。但是在回答问题或生成流畅的新文本方面,他们可以用数字处理的方式取得令人印象深刻的成果。


谷歌的BERT就是这样一个系统,它被用来改进谷歌搜索引擎处理字句很长的查询的方式。微软称将授权OpenAI的GPT-3用来写电子邮件和广告文案。



这种进步促使其他研究人员开始质疑这种新语言技术的局限性和可能产生的社会影响。Gebru和论文的其他几个作者开始将这项工作联系在一起,并建议研究团体应该如何回应。


Gebru的这篇论文指出目前该方面研究的局限性包括,语言 AI 会消耗大量的电力,还有谷歌语言模型 BERT的局限性,研究发现BERT倾向于把一些像大脑麻痹、失明等表示残疾的短语与负面的语言联系起来。


在Gebru这篇论文中,她和团队敦促人工智能开发人员对语言项目要更加谨慎,不仅要考虑人工智能开发人员的观点,还要考虑那些可能受制于系统输出或判断的领域之外的人的观点。


他们还建议研究人员应该做更多的工作来记录用于创建语言人工智能的文本以及由此产生的系统的局限性。还指出了一些最近提出的用数据标记人工智能系统的准确性和弱点的想法。其中一个由Gebru共同参与创建的名为「模型卡片」的模型报告,已经被谷歌的云部门采用


各方的评价


这样看来,Gebru这篇论文是在提一些建设性的「改进意见」。


伦敦大学学院荣誉副教授朱利安•科内比斯(Julien Cornebise)在看过Gebru这篇论文后说:「这是一篇非常扎实、经过深入研究的文章,很难想象这会在任何实验室引起骚动,更不用说会导致某人因此丢掉工作。」


艾伦人工智能研究所(Allen Institute for AI)首席执行官奥伦•埃齐奥尼(Oren Etzioni)表示: 「这项工作仍在进行中,因为这种偏见有多种形式。几乎所有在这个领域工作的人都认识到,这些模型的影响力正在日益增强,在负责任地使用它们方面我们责无旁贷。」


在写这篇论文之初,Gebru就找到了华盛顿大学教授 Emily Bender,与她讨论人工智能处理文本的最新进展所引发的伦理问题。Bender在事发后也表示:「尽管Jeff Dean认为这篇论文质量不佳(poor quality),但这个领域确实还远远没有发明出一种能够可靠地消除语言偏见的方法。」


而Jeff Dean呢?他对这篇论文到底作何评价?


他在邮件中说:「这篇论文本身也有一些重要的缺陷,使我们无法轻松地将谷歌关联其中。例如,关于如何使模型更有效率以及减少整体环境影响的重要发现在论文中都没有体现,也没有考虑到谷歌和其他研究人员最近在减少语言模型偏见方面的一些工作。强调风险而不提出研究人员和开发人员理解和减轻这些风险的方法,这种做法对于解决这些问题没有帮助。


Jeff Dean还强调,这并非他「一家之言」,论文评审结果是由谷歌和业内一大批研究人员、社会学家、伦理学家、政策和隐私顾问以及人权专家共同决定的。



2020年末的BIG TECH


2020年末似乎对谷歌并不友好。


不论是内部的员工起义,还是国家劳工关系委的诉讼,还有10州的指控都够让人头大了。



其实,BIg Tech的境况都很棘手:


上周,美国联邦贸易委员会(Federal Trade Commission)和40多个州指控 Facebook 通过收购初创企业的竞争对手来非法打压,并主张应该拆分该公司。


苹果和亚马逊也都在接受联邦反垄断调查。


艰难如斯。


而谷歌事态发展到今天其实也是意料之中,毕竟2年前,谷歌就曾发生过员工起义,导致当时数千名员工罢工。但事实上,上次提交的「改革清单」到最后大部分都没有得到满足,这次提的要求能满足到什么程度我们静观后续。





参考链接:

https://www.wired.com/story/behind-paper-led-google-researchers-firing/

https://www.bloomberg.com/news/articles/2020-12-16/google-ai-researchers-lay-out-demands-escalating-internal-fight?srnd=technology-vp




浏览 32
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报