首页 > 机器人资讯 > 谷歌资深工程师:人工智能不会爆炸,奇点未必存在

谷歌资深工程师:人工智能不会爆炸,奇点未必存在

日期:2019-03-07   人气:  来源:互联网
简介:谷歌资深工程师:人工智能不会爆炸,奇点未必存在 AI来了。不对,是AI又来了。现在AI在很多事情上都已经比人厉害,比如下围棋、识别特定图像什么的。按照数学家I.J.Good的想法,既然人能造出比人厉害的机器,那么这些机器也将制造出更多比自己更智能的机器……

谷歌资深工程师:人工智能不会爆炸,奇点未必存在

AI来了。不对,是AI又来了。现在AI在很多事情上都已经比人厉害,比如下围棋、识别特定图像什么的。按照数学家I.J.Good的想法,既然人能造出比人厉害的机器,那么这些机器也将制造出更多比自己更智能的机器,从而很快会出现智能的爆炸。后来,包括算机科学家弗诺?温格和未来学家RayKurzweil在内的一些人提出了奇点来临的观点,认为人类造出比人更聪明的机器将带来人类时代的终结。包括霍金和ElonMusk在内的一批人都认可AI的这种威胁的紧迫性。那么智能到底会不会爆炸呢?奇点会不会很快来临呢(RayKurzweil的观点是2029年)Python深度学习框架keras.io的开发者、Google资深软件工程师Fran?oisChollet从观察出发,通过对智能和递归自我改进系统的认识分析了这一看法的真伪。他的论证非常有说服力,其结论也令我们宽心。

1965年,I.J.Good首次提出了智能爆炸的概念,这个概念跟人工智能(AI)有关:

姑且把超级智能定义为一台远远超越任何人(不管他有多聪明)所有的智力活动的机器。既然设计机器也是这些智力活动之一,那么一台超智机器也可以设计出比自己更好的机器;这样一来无疑将出现智能爆炸,而人的智能将会被远远抛在身后。因此,鉴于这台机器足够温顺可告诉我们如何让它处在我们的控制之下,第一台超智机器将成为人类所需的最后一项发明。

数十年后,智能爆炸也就是导致超智突然崛起,人类意外灭绝的概念已经在AI社区落地生根。知名的商界领袖把它当作比核战争和气候变化还要重大的风险来宣扬。普通的机器学习研究生也认可这一点。在2015年面向AI研究人员的一项调查中,29%的受访者回答说智能爆炸的发生有可能或者高度可能。另有21%者认为有非常大的可能性。

这些论断的基本前提是,在不久的将来,第一个种子AI将会被创造出来,这个AI会有稍微超过人类的一般问题解决能力。这个种子AI会开始设计更好的AI,开启一个可马上让人类智能望尘莫及的递归自我改进循环,在很短的时间内就超过了人类好几个量级。这一理论的支持者还把智能看成是某种超级力量,赋予其持有者塑造环境的近乎超自然的能力比方说,就像我们在科幻电影《超验骇客》中所看到的一样。超级智能因此将意味着近乎全能,并且会对人类构成生存威胁。

这种科幻小说的叙述手法助长了危险的、具有误导性的有关AI风险与对AI监管需求的公众辩论。但我认为智能爆炸是不可能的智能爆炸的看法来自于对智能的本质与递归式自我改进系统有着很深的误解。在本文中我会试着以对智能系统和递归系统的具体观察为基础提出我的观点。

源自对智能的误解得出的推理是有瑕疵的

就像产生于1960、1970年代的众多早期理论一样,智能爆炸背后的推理有点强词夺理:该理论把智能看成是一个跟环境脱节的、完全抽象的概念,并且忽视了有关智能系统和递归自我改进系统的已有证据。其实未必就是这样的。毕竟嘛,我们都生活在一个满是智能系统和自我改进系统(包括我们自己)的星球上,所以完全可以去观察这些系统并从中去了解,进而回答这个问题,而不是凭空想出毫无证据的循环论证。

要想讨论智能及其可能的自我改进属性,我们首先应该介绍一点必要的背景和上下文。当我们在讨论智能的时候我们在讨论什么呢?对智能本身的精确定义就是一个挑战了。智能爆炸的说法等同于体现在智能代理个体(目前的人脑、或者未来的电子大脑)身上的、有着一般问题解决能力的智能。当然这还不是全部,所以我们不妨把这个定义作为起点,然后在此基础上再慢慢拓展。

智能是情景化的

我认为智能爆炸理论的第一个问题是未能认识到智能是一个更大的系统的必要组成部分以为智能是密封起来的大脑,独立于环境就能做出任意智能的东西来。大脑不过是一团生物组织罢了,它本身本来就没什么智能的。除了大脑以外,你的身体和感觉你的感觉运动的环境赋使这些都是思维必不可少的部分。你的环境是你的智能的基本部分。人类文化是你的智能的基本部分。毕竟,这些是你所有想法的来源。你不能够把智能跟表达智能的上下文脱离。

尤其是并不存在所谓的一般智能这样的东西。就抽象意义而言,我们是通过没有免费午餐定理了解到这一点这个定理说的是没有一个问题解决算法能够比搜索空间的纯随机搜索算法更优。(对于所有可能的问题,任意给定两个算法A、A’,如果A在某些问题上的表现比A’好,那么A在其他问题的表现就一定比A'差,反之亦然。也就是说,任意两个算法A、A’对所有问题的平均表现度量是完全一样的)如果智能是个问题解决算法的话,那么只能针对特定问题来理解它。说得更具体一点,就经验来看,我们观察到的所有已知的智能系统都是高度专门化的。我们目前所开发的AI的智能都是专门用来处理相当狭隘的任务的比如下围棋的,或者把图像分成1万个已知类别的。章鱼的智能时候专门用来处理章鱼所面临的问题的。人的智能是专门用来处理人所面临的问题的。

如果我们把刚刚形成的人脑放到章鱼的身体里面,然后让它生活在海底会发生什么事情呢?它甚至能不能学会运用自己有8条腿的躯体呢?它能不能活几天下来呢?我们无法进行这样的实验,但是我们的确知道人类和动物的认知发展是由硬编码的、先天的动力驱动形成的。人体天生就有一套预置的反射行为以及固有的学习模板来推动早期的感觉运动发展,而这个跟人类感觉运动空间的结构是紧密关联的。大脑已经把有手能抓东西,有嘴能吃东西,会转动的脑袋上面有眼睛能用于在视觉上跟踪对象(前庭眼球反射)的躯体概念硬编码进去了,这些感觉需要人类智能开始去控制人体。比方说Chomsky(乔姆斯基)就曾经令人信服地提出,非常高级的人类认知特点,比如发展出语言的能力,就是天生的。

类似地,为了学习如何运用章鱼躯体并且在章鱼的环境下生存,你也可以想象章鱼也有自己的一套必要的、硬编码进去的认知基元。人脑是高度针对人类环境的,这属于一种天生的专门化,这种专门化的范畴可能要延伸到社会行为、语言以及常识,而章鱼的大脑类似地也会高度针对章鱼的行为。人类婴儿的大脑哪怕嫁接到章鱼身体也很有可能无法对其独特的感觉运动空间进行充分控制,会很快死掉。现在你可就没那么聪明了,超级大脑先生。

如果我们把一个人放到一个不具备众所周知的人类文化的环境里面去会怎样呢?一群狼抚养长大的森林王子毛克利(Mowglitheman-cub)长大后会不会比他的犬科兄弟更聪明呢?或者跟我们一样聪明?如果我们用婴儿爱因斯坦替换婴儿毛克利的话,他会不会自学成才想出宇宙的大理论呢?经验证据相对比较缺乏,但是就我们所知,在脱离人类文化的自然环境下长大的小孩并不能形成任何的人类智能。在野外抚养的野孩子从一开始就其实就变成了动物,就会回归文明也不再能养成人类行为或者语言。在南非,由猴子抚养的SaturdayMthiyane5岁时被人发现后,直到成人都一直保持着猴子的行为跳跃和走路都是四脚着地,不会说人话,并且拒绝吃煮过的食物。至少在形成期跟人类有过部分接触的野孩子往往运气好点,可以接受再教育,尽管罕有逐步发展成心智健全人的情况。

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。