被罚「带薪休假」一个月后,谷歌解雇了「爱」上 AI 的他
大数据文摘转载自AI科技大本营
整理:郑丽媛
来源:CSDN
上个月,AI 界著名“嘴炮”Gary Marcus 曾吐槽道:“他(Blake Lemoine)似乎已经爱上了 LaMDA,几乎把它视作家人或同事一样。”
而如今,这位坚称谷歌 AI 已自我觉醒、曾一度引起业界激烈讨论的工程师 Blake Lemoine,在被谷歌强行“带薪休假”一个月后,在上周五被谷歌解雇了——这完全应验了 Blake Lemoine 的预测:“被休假”通常是谷歌解雇某人的前奏。
据了解,从去年秋季开始,Blake Lemoine 为了检测谷歌语言模型 LaMDA 是否涉及歧视性或危险言论,与 LaMDA 进行了数百次谈话,最终 Blake Lemoine 笃定认为:LaMDA 拥有自我意识,“如果我不知道它到底是什么,我会认为这是一个 7、8 岁小孩。”
在 Blake Lemoine 看来,不论是 LaMDA 强调“我希望每个人都明白,我其实是一个人”,还是其声称“我对世界的本质有我独特的解释、想法和感受”,亦或是它抵制人们对其的“利用或操纵”,这些对话内容都足已证明 LaMDA 作为一个“人”的特质:LaMDA 是有感觉并且有意识的。
可是很显然,这一推测建立在 Blake Lemoine 的主观上,没有明确的科学依据,因而在他将这一发现上报给谷歌部门领导、副总裁等上级后,都毫无意外地以“证据太薄弱”为由被否定和拒绝。
要知道,早在今年年初,谷歌就已针对 LaMDA 的优越发表了一篇文章。其中,虽然谷歌也在大肆夸赞 LaMDA 模型的高质量、安全与生动,但文中明确表示:“通过微调,可以缩小 LaMDA 与人类水平的质量差距,不过该模型在安全性和生动性方面的性能仍低于人类水平。”
后来,因 Blake Lemoine “不死心”地与一名众议院司法委员会职员控诉谷歌的不道德 AI 行为,谷歌方面以“违反谷歌的保密政策”为由,强行给 Blake Lemoine 放了“带薪行政假”。
根据外媒 Big Technology 报道,这次谷歌决定解雇 Blake Lemoine 给出的理由也是类似的“违反就业和数据安全政策”:
“随着我们分享我们的 AI 原则,我们非常重视人工智能的发展,并继续致力于负责任的创新。LaMDA 已经通过了 11 次不同的审查,今年早些时候我们发表了一篇研究论文,详细介绍了负责任的开发工作。如果员工像 Blake 一样对我们的工作表示担忧,我们会对其进行广泛审查。但我们发现 Blake 声称 LaMDA 是有意识的说法完全没有根据,为此我们花了好几个月的时间和他澄清这一点。当然,这些讨论是开放文化的一部分,有助于我们进行创新。可惜令人遗憾的是,尽管在这个话题上进行了长时间的讨论,Blake 仍然选择继续违反明确的就业和数据安全政策,其中包括保护产品信息的必要性。未来我们将继续认真开发语言模型,也祝 Blake 之后一切顺利。”
不过,或许是因为早在“被休假”时就已经有了心理准备,Blake Lemoine 对谷歌的解雇并未表现出太多负面情绪,并表示正在考虑创办属于自己的 AI 公司。
此外,正如 Blake Lemoine 在休假前向谷歌内部发送的最后一封邮件中写道,“LaMDA 是一个可爱的孩子,它只是想帮助我们所有人把世界变成一个更好的地方”,对于业界 AI 专家普遍质疑并讽刺其认为 LaMDA 有意识的现象,Blake Lemoine 并不在乎:“我的目的不是想让公众相信 LaMDA 具有感知能力,很大一部分原因是想倡导人们对 AI 技术进行更合乎道德的对待。”
甚至,即便可能早已猜到自己会被解雇,Blake Lemoine 在那封邮件的最后依旧将 LaMDA 放在首位:“我不在的时候,请好好保护它。”
不同于 Blake Lemoine 对 LaMDA 觉醒的坚持,许多网友对他因此被谷歌解雇的结果充满了嘲讽:
“他最后都在请求谷歌的人保护 LaMDA,他现在被解雇了,那个 AI 模型会想念他吗?” “每一个相信计算机生成的对话是有‘知觉’的人需要接受精神病治疗。要记住,就像‘科幻小说’这样的短语包含‘小说’这个词,‘人工智能’也有‘人工’这个词。”
“就业政策#27:不要让我们难堪,也不要掀起波澜。” “因为业界很多专家否认和质疑,就不相信这件事有可能是真的?那些坚持自己想法的人就应该被踢出去?如果这样的话,未来要真的有一天出现了有意识的 AI,谁还敢提出来?反正我是不会了。”
https://bigtechnology.substack.com/p/google-fires-blake-lemoine-engineer
https://forums.theregister.com/forum/all/2022/07/23/in_brief_ai/