毕竟,「AI能否理解」,这个问题既模糊,又在社区内存在极大的争议和分歧。Hinton坚决反驳了一种流行的观点,即LLM仅仅是统计技巧,并不能真正理解自然语言的含义。他表示,这是完全错误的。类似于「词袋」(bag of words)或者N元组(N-gram)这种曾经的语言模型,内部保存了一个很大的有概率分数的单词组合表,的确是依靠统计概率工作。说到这里,身为英国人的Hinton非常自然地用国菜开始举例。比如单词表里会显示,「鱼」和「薯条」经常出现在一起。因此模型看到「鱼」这个单词,自然就会预测下一个单词是「薯条」,丝毫不考虑上下文。这就是为什么,曾经的统计语言模型在自动补全功能上的表现很差。但当今LLM的工作原理已经完全不同了。现在,模型预测下一个单词的方法是理解你到目前为止所说的话。比如,想要回答人类的问题,LLM必须首先理解问题的含义,否则根本无法预测答案的第一个单词。从这个角度理解,单词预测任务(next token prediction)相当于是倒逼LLM发展出理解能力。Hinton的言语中透露出,他也相信Scaling Law的存在。随着模型逐渐扩展,加上更多Transformer这样的技术突破,AI终将变得比人类更智能,只不过是时间早晚的问题。主持人反问他,变得更聪明的技术一定会带来风险吗?Hinton的回应一针见血——「你能举出多少例子,说明更聪明的在被不太聪明的控制?」「拜登当选之后就不再有了吧?」他提到,好友Yann LeCun的观点就与自己不同,认为AI非常安全。但Hinton的论据是,AI已经达到了构建智能体(agnet)的程度,能够自主创建目标。这些目标会驱动智能体攫取更多控制权,会希望避免毁灭、建立自我保护,某种程度上这是一种自身利益,也许就是进化的开始。那么人类呢?Hinton预言,如果AI开始进化、最强的一方获胜,人类就会被遗忘,被碾压进尘土(原话:left in the dust)。AI将从孩子变成我们的父母,接管一切。这听起来的确是科幻小说的场景,但对Hinton是认真的,「我不再认为这听起来很科幻,而是现实存在的威胁。」