如果一家公司制造了一辆非常危险的汽车,并跳过了所有安全测试,结果发生了严重的交通事故。毫无疑问,这家公司会受到处罚,甚至会面临刑事指控。但如果这家公司开发了一个搜索引擎,有不法分子用它搜索到了“如何犯罪”的相关内容,并也造成了无法挽回的后果,但根据美国《通信规范法》第230条(互联网平台不用对其平台上的用户发表的言论负责),这家公司不会因此承担法律责任。这就有一个问题:人工智能更像是一辆汽车,需要制造商对其进行安全测试;还是更像是一个搜索引擎?这个问题正是1047提案引发激烈争论的核心。如果这项提案最终通过,硅谷那些在人工智能上投入超过1亿美元的公司将被强制要求进行安全测试。如果未能遵守这些安全测试要求,这些公司将受到监管部门的处罚,金额最高可达模型开发成本的 30%,开发人员甚至还会面临刑事指控。在政策制定者们看来,大模型是科技巨头们造的“汽车”,他们应该为对其安全性进行负责,这在全球已经形成了某种程度上的共识,但硅谷的巨头们并不这么想。在他们看来,讨论人工智能是否安全仍然为时尚早。人工智能科学家吴恩达表示:我不担心人工智能的安全性,就像是我不担心火星会出现仍口过剩一样。杨立昆也在推特上写道:拥有智慧并不意味着必然会产生统治欲,在人类中,最聪明的人也不一定渴望权力。需要明确的是,如果 1047 提案最终被通过,它的确会大幅度增加大公司们的开发成本,从而可能改变它们在人工智能这项业务上的策略(比如不再对自己的大模型开源),最终影响整个软件开发的生态,甚至扼杀新兴的人工智能创业公司。在这项提案的要求里,尽管公司对开发的人工智能进行了“对齐”,使其不会做有害于人类的事情并对其进行了开源,然而如果有其它的开发者撤销了这项调整,然后用它去做坏事,这家公司仍然要对所造成的损害负责,这看起来并不合理。更值得担心的是,我们已经在许多行业见证过,过度的合规要求将占用大量的时间和精力,从而影响核心业务的进展。这项提案的编写者 Scott Wiener 表示,针对外界的担忧,他已经对提案做出了一定的修改。他调整了提案涉及的大模型标准,并澄清开发者们并不需要对其开源所造成的负面影响负全责。Scott Wiener 还指出,他愿意做出更多的调整,他的本意只是希望人们要注意人工智能的安全,这一点很重要。