GPT—3离通用智能还有多远?

人工智能和大数据

共 7002字,需浏览 15分钟

 ·

2021-05-14 09:09

来源:王宏琳科学网博客http://blog.sciencenet.cn/blog-3005681-1285948.html 

    人工智能已经成为大数据、机器人和物联网等新兴技术的主要驱动力,在可预见的未来,它将继续驱动技术创新,影响着几乎每个行业和每个人的未来。但是,人工智能的最终目标是使机器具有与人类相似的通用智能。这是科学界提出的最雄心勃勃的目标之一,还有很长的路要走。

GPT-3和AlphaGo不是通用智能

2020年诞生的GPT-3,使用深度学习生成类似人类的文本,代表了OpenAI的巨大成就(见上一篇博客《机器学习漫谈:人工智能的新技巧》),不幸的是,GPT-3的能力让有的人误以为它是迈向人工通用智能(AGI)的重要一步,被视为原始AGI(Proto-AGI)——只要有足够的数据,它将导致AGI。事实并非如此。AGI是“具有理解或学习人类所能完成的任何智力任务的能力的机器”,而GPT-3只是学习单词共现的统计特性,它根据一个词跟在另一个词后面的统计可能性把词串在一起。GPT-3没有常识知识,也不能基于常识进行推理。因此,它不同于AGI系统,AGI系统将常识推理应用于他们对世界的认识,就像人一样。
说GPT-3不是AGI,绝不会降低GPT-3的成就,或降低它的有用性或适用性。自然语言生成有着广泛的需求,从聊天机器人到合同编写和代码生成。GPT-3代表了最新的最先进的文本生成技术,它将大量的数据与计算结合起来,以达到惊人的精确输出水平。但是,GPT-3虽然令人印象深刻,仍然缺乏AGI所要求的能力,通往人工通用智能的道路的切入口,可能不会是通过GPT-3、GPT-4或GPT-5。
2016年,谷歌DeepMind设计的玩围棋的人工智能,AlphaGo,击败世界冠军李世石,也有人称之接近人工通用智能。但是,它是人工通用智能机器吗?不是。
构建AGI的关键之一是,它必须自己理解世界,能够将它遇到的、听到的、说的和做的一切,用于发展自己的、内在的意义。如果做不到这一点,你最终会得到今天的人工智能程序,所有的意义实际上都是由应用程序的设计者提供的:GPT-3和AlphaGo基本上不了解正在发生的事情,而且专业领域很窄。

 

图1 《算法是不够的》一书封面

2020年,MIT出版社出版了赫伯特·罗伊特布拉特(Herbert L. Roitblat)一本书,题为《Algorithms Are Not Enough:Creating General Artificial Intelligence(算法是不够的:创造通用的人工智能)》。这本书讨论了为什么在探索人工通用智能时需要一种新的方法(参考资料[1])。书中提到,自从人工智能诞生以来,我们就被警告说,可以复制人类思维过程的计算系统即将到来。在我们意识到这一点之前,计算机将变得如此智能,人类将幸运地被当作宠物饲养。然而,尽管人工智能已经变得越来越复杂(比如无人驾驶汽车和下围棋),计算机科学还没有创造出人工通用智能。在《算法是不够的》一书中,赫伯特·罗特布拉特解释了人工通用智能是如何可能的,以及为什么机器人世界末日既不迫在眉睫,也不太可能发生。他提到,智力,就像爱因斯坦所展示的那样,但也像普通人每天所显示的那样,并不仅仅来自遵循特定指令的路径。他强调,“通用智能不是算法优化”,优化过程得到一组合适的参数的机制可以成功地解决特定问题,但是,“优化并不创建参数;它的工作是调整由程序设计者给出的模型参数”。

宠物和奇点神话

至少从20世纪50年代以来,一些人工智能学家的一直追求目标是创造出能够全面匹配人类智力水平的机器——强人工智能(Strong AI)或真人工智能(Real AI),并受到了媒体不断的炒作和放大。前面罗伊特布拉特书中提到的“宠物饲养”,就是50年前媒体的一个炒作。
1970年,《Life(生活)》杂志的记者布拉德·达拉赫写了一篇关于SRI(斯坦福研究所)人工智能中心开发的世界上第一个移动智能机器人沙基(图1左)的文章,认为虽然沙基“看起来不怎么样”,“没有对性感的实验室技术人员隐秘的欲望,能做的就是避免撞到墙上,但事实上它是一个历史性的成就”。达拉赫采访了麻省理工学院的首席研究员马文·明斯基(著名人工智能专家,1969年图灵奖得主),在报道中引用他的话说:“在三年到八年后,我们将拥有一台具有普通人一般智能的机器。我指的是一台能够阅读莎士比亚、润滑汽车、玩办公室政治、讲笑话、打架的机器。到那时,机器将以惊人的速度开始自我教育。几个月后,它将达到天才水平,几个月后,它的力量将无法估量”。
还有一个说法当时被广为传播:明斯基和他的同事警告说,智能计算机不应该被置于控制不可缺少的系统;相反,必须小心控制它们。媒体在转述中强调:明斯基和他的同事认为,在计算机掌管对社会生存至关重要的系统之前,必须解决计算机控制的问题。它可能会破坏人类的社会秩序——或者毁灭人类。报导称:明斯基说,“一旦电脑控制了局面,…如果我们幸运的话,他们可能会决定把我们当宠物养。”据说,后来明斯基否认发表过关于宠物的言论。不过,此后,机器人“超人”成为一些电影的主角,对公众产生深刻影响。

 

图2 机器人沙基(左)电影《终结者》中的机器人(右)

另外一个在科技界广为流传的是“奇点”神话。奇点是指人工智能进入指数改进过程的时间点。一个如此智能的软件,它能够越来越快地自我完善。1993年计算机科学家凡诺·文格(Vernor Vinge)发表的一篇文章,标题是《即将到来的技术奇点:如何在后人类时代生存》,他预言,“三十年内,我们将拥有创造超人智能的技术手段。不久之后,人类时代将结束。”
在2016年3月,AlphaGo战胜围棋世界冠军李世石后,媒体经常报导和炒作霍金和马斯克对于“人工智能可能会毁灭人类”的警告。在21世纪10年代,斯蒂芬·霍金(剑桥大学理论物理学家)和埃隆·马斯克(美国太空探索技术公司和特斯拉公司首席执行官),都是传奇式人物。据报道,2016年,马斯克在加利福尼亚州一次会议说,如果人类创造出“具有超级智慧的人工智能产品”,它的各方面能力远超人类,那么人类在强人工智能面前可能会沦为“家猫”。2017年,霍金指出,“人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭”。
另一方面,霍金和马斯克也都对机器学习技术抱有兴奋和渴望的乐观情绪。2017年,在特斯拉公司学术和行业研究人员一次聚会上,马斯克宣称特斯拉的人工智能是世界上最好的。马斯克说,他的公司不仅仅是一家电动汽车制造商,更像是一家人工智能机器人公司。特斯拉正在开发一支最强大的软硬件人工智能团队,以彻底改变全球人工智能和机器人生态系统。2017年4月,霍金发表过《让人工智能造福人类及其赖以生存的家园(Guiding AI to Benefit humanity and the environment)》的主题演讲,指出,“简单来说,我认为强人工智能的崛起,要么是人类历史上最好的事,要么是最糟的”。霍金承认人工智能或许能够用于根除疾病和贫困。
科学界许多人认为,在可见的未来,不必担心人工智能会人类生存构成威胁。虽然马斯克和霍金等曾多次警告人工智能将超过人类,2017年在《哈佛商业评论》举办的一次会议上,知名的人工智能学专家吴恩达表示,这种情况在不远的将来是不可能出现的。吴恩达在《哈佛商业评论》举办的一次会议上表示,人工智能的智力在不久的将来不可能超过人类,我们更应当担心机器学习带来的工作岗位的流失。

ANI、AGI与ASI

ANI(Artificial Narrow Intelligence人工窄智能)是一种专注于单一窄任务的人工智能,它具有范围狭窄的能力。ANI可以解决特定的领域问题,甚至于超过人类同行。但是,它们只擅长于一项或几项密切相关的任务。这类人工智能的能力范围有限,专门为狭隘的用途而设计。

至今为止的人工智能,都属于ANI。这是目前存在的唯一AI。电子邮件垃圾邮件过滤器、谷歌翻译、语音识别,都是典型ANI。跳棋、象棋、拼字游戏、双陆棋和AlphaGo是ANI。当你使用智能手机,地图应用程序导航、接收定制的音乐推荐、查看明天的天气、与智能助理交谈,或其他许多日常活动时,你正在使用ANI。正在测试中的自动驾驶汽车,将包含强大的ANI系统,使其能够感知周围的世界并做出反应。但是,ANI主要基于深度学习技术,具有严重的局限性。 例如:(1)对数据要求过高,需要大量高质量的数据才能产生准确的结果,并且并非所有环境都满足这些数据要求;(2)将知识转移到其他领域的能力低。如果任务发生更改,则系统的效率会降低,因为它是针对特定目的进行编程的;(3)不透明,缺乏推理和知识表示。

 

图3 三种类型人工智能

AGI(Artificial General Intelligence人工通用智能)是智能主体能够理解或学习人类可以执行的任何智力任务,而不是专注于特定的任务。它有点像人脑,理论上它应该能够像人脑一样思考和运作,能够理解不同的内容,理解问题,决定在复杂的情况下什么是最好的。这正是AGI尚未实现的原因。从技术上讲,我们还不能制造出如此复杂的东西,而且我们也不确定人脑到底是如何工作的。AGI也可以称为强AI,全AI。如前所述,这是人工智能(AI)的最初目标,不过,到目前为止,没有一个人工智能程序可以称为AGI。

AGI是AI进化的下一个逻辑步骤,相当大的一步,如同从DOS到Windows,或者翻盖手机到智能手机的进化。AGI使机器可以在不同的环境中应用知识和技能。

目前,AGI的主要方法之一称为“全脑仿真”,计算机架构类似于大脑的架构,因为它们都可以通过称为神经网络的神经元系统进行操作。迄今为止,科学家已经能够复制大脑迄今为止,科学家已经能够复制由302个神经元组成的1毫米扁虫的大脑。然而,据估计,人类的大脑包含1000亿个神经元,这意味着我们有一段路要走才能重建大脑。
与普通计算机相比,使用量子力学以指数方式处理更多数据的量子计算机被定位为促进AGI的下一个技术前沿。

ASI(Artificial Super Intelligence人工超级智能)可以使机器变得足够自我意识/自我警觉,超越人类的智力和行为能力。

当AGI被实现,计算机能够以非常快的速度独立学习,并且在没有人工干预或帮助的情况下以指数级的速度自行提高时,人工智能可以假设达到的最后一步就是人工超级智能(ASI)。

在这一阶段,人工智能将在几乎所有领域都能大大超越最优秀的人脑。从AGI到ASI的进化理论上要比我们现在从ANI到AGI的速度快得多,因为一旦计算机能够真正从经验中学习并通过反复试验,AGI将允许计算机“思考”并成倍地提高自己。如果真的发生了向ASI的转变,那么理论上预期在此时发生的指数增长通常被称为“智力爆炸”。

我们离AGI有多远?

1956年,赫伯特·西蒙(Herbert Simon,1975年图灵奖和1978年诺贝尔奖得主)声称10到20年可以实现通用计算机智能。六十年后,2016年,马克·扎克伯格(Mark Zuckerberg,Facebook创始人和首席执行官)声称,“我们想要建立的基于人工智能的计算机服务,将比人类有更好的洞察力和理解力。人类基本的听、说、读、写等核心感知力,我认为在未来5-10年,计算机一定能做得比人类自己更好”。然而,与反复的乐观预测相反,人工智能只实现了一些专门的能力,通用智能仍然难以捉摸。
2018年,在一本名为《Architects of Intelligence(智能架构师)》的新书(参考资料[2])中,作家兼未来学家马丁·福特采访了23位当今在人工智能领域工作的最杰出的专家,其中包括DeepMind首席执行官黛米斯·哈萨比斯(Demis Hassabis)、谷歌人工智能首席执行官杰夫·迪恩(Jeff Dean)和斯坦福人工智能总监李飞(Fei-Fei Li)。在一项非正式调查中,福特让他们每人猜测到哪一年AGI至少有50%的可能性建成。在福特采访的23人中,只有18人回答了问题。有趣的是,这两个人给出了最极端的答案:未来学家、谷歌工程总监雷·库兹韦尔(Ray Kurzweil)提出,到2029年,AGI建成的可能性将达到50%,机器人学家、iRobot联合创始人罗德尼·布鲁克斯(Rodney Brooks)的为2200年。其余的猜测分散在这两个极端之间。详见下表(在建成时间后面括号内数字表示多于1人给出相同估计,“年数”是指估计从2018年起多少年建成)。平均估计是2099年,是2018后81年。

表1 “什么时候才能实现人类级AI?” 调查结果(参考资料[2])

估计建成时间

年数

估计建成时间

年数

估计建成时间

年数

2029

11

2068 (3)

50 年

2118 (3)

100 年

2036

18

2080

62 年

2168 (2)

150 年

2038

20 年

2088

70 年

2188

170 年

2040

22 年

2098 (2)

80 年

2200

182 年

换句话说,AGI还有很长的距离。
KDnuggets(一个在线的商业分析、大数据、数据挖掘和数据科学平台)最新民调题目是“何时能达到AGI(人工通用智能)?”(注:AGI之后是否会出现技术奇点,这是一个单独的问题,本次调查没有涉及)。根据1200多张回复得出的结果是:67%的认为AGI将在不到50年的时间内实现,最常见的答案(也是中间答案)是21到50年。只有大约12%的人认为AGI永远不会实现。具体统计如下(参考资料[3]):
10年或10年以下:22.5%的受访者
11-20年,20.1%
21-50年,23.9%
51-100年,14.3%
100多年,7.5%
永远不会出现:11.7%

 

图4 KDnuggets的AGI调查结果(参考资料[3])

结语

机器学习的未来令人兴奋。机器学习正在改变我们的生活。最近,自动驾驶汽车、智能助手、机器人和智慧城市管理已经证明,智能机器是可以想象的,并且可以产生诱人的效果,改变大多数行业领域,如零售、生产、建筑、会计、医疗服务、媒体和工程。
艾伦·图灵1950年在他的开创性著作的《计算机器与智能》一文中所说,“我们只能看到前面不远的地方,但我们可以看到很多需要做的事情”(参考资料[4])。
2020年12月23日在“推动 AI 前进:跨学科方法”为主题的《AI Debate 2》辩论会上,有十几位顶尖的计算机科学家,对人工智能下一步发展,各抒己见。例如,斯坦福大学教授李飞飞指出:“在真实环境中感知与行动之间不断循环互动,将引发人工智能的新一轮进化”。的确,所有复杂智能所需的智力发展,取决于与环境的相互作用。研究以及构建这种具备互动学习能力的智能体是重要方向,这些智能体使用感知和驱动来学习和理解世界。加州大学洛杉矶分校教授朱迪亚·珀尔(Judea Pearl,图灵奖得主)反对仅仅依赖数据的文化,提出了一套基于结构的关于因果的数学语言和理论,作为因果科学是回答因果问题的推理引擎,他称之为“深度理解”。该引擎的特点是 “Knowledge in, Knowledge out, Data in between(知识输入,知识输出,数据在中间)”。
在后工业化时期,人们试图制造一台机器,它像人类一样进行各种活动。达到这个科学史上最为雄心勃勃的目标,还有很长的路要走。但是,即使未来实现了人工通用智能,也永远不会和人类智能完全一样。

参考资料

[1] Herbert L. Roitblat.Algorithms Are Not Enough:Creating General Artificial Intelligence.The MIT Press.2020

[2] Martin Ford.Architects of Intelligence: The truth about AI from the people building it. Packt Publishing.2018

[3] Gregory Piatetsky, When will AGI (Artificial General Intelligence) be reached? KDnuggets.2018

[4] A. M. Turing (1950) Computing Machinery and Intelligence. Mind 49: 433-460.

浏览 18
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报