百度徐伟:AGI2050年前实现可能性超50%

【编者按】百度IDL杰出科学家徐伟老师,就讲通用人工智能、自主学习、体验智能、语言获取等方面进行了详细的介绍。徐伟认为,通用人工智能,最核心的是学习能力,并笑称“到2050年,通用智能达到人类智能水平的可能性比我得老年痴呆的可能性要大一些。

本文转自“新智元”,作者:徐伟;经亿欧编辑,供业内人士阅读。

以下是对徐伟老师的的访问:

徐伟:通用人工智能现在处于什么水平

雷鸣:徐伟在百度的IDL做了很多年的相关研究,他的技术在全球较为领先。目前,百度在做PaddlePaddle,徐伟则是在通用人工智能领域进行研究,包括认知、自主学习等方面,这是人工智能领域里更具探索性的研究,这个方向也会日益重要。今天,我们有幸请到徐伟与我们分享。

徐伟:谢谢雷鸣。我与北大有一些渊源,今天能来北大讲课,与大家分享通用人工智能的发展,感到非常荣幸。近些年,人工智能主要在特定领域内有很大的飞跃,包括语音识别、人脸识别。通用人工智能则有所不同,主要强调具备人一样的多重智能行为,包括感知、决策、推理与规划,以及交流和沟通。其中,我认为最重要的是学习能力。 目前,很多人工智能的学习能力可能还不如两三岁的小孩。重要的学习能力主要包括:渐进学习、自主学习和交互式学习。渐进学习是指,在不断地学习新知识时,可以将老知识应用到新知识的学习中;自主学习是指,人从小所受的监督学习较少,更多的是与环境接触之后,不断自主学习;交互式学习是指,通过交流来学习。目前,这一些学习能力都是深度学习所欠缺的。

通用人工智能现状:上世纪50年代,人们提出人工智能的概念,一开始是从通用智能的角度提出。由于在通用人工智能领域没有产出,很多funding被断了。之后,人们瞄准特定领域的人工智能,比如图像识别,做单点的人工智能技术。近几年,随着计算能力的提升和深度学习的使用,特定领域的人工智能有了很大的提升。我认为主要的因素是计算能力提升巨大,GPU能够处理大量数据,同时深度学习广泛被使用,深度学习与浅层的机器学习相比,模型的复杂度可以随着数据量的不断增加而增加,使得模型的效果不断优化。传统的机器学习在数据量到了一定程度以后,效果增加缓慢。

在一些特定任务的人工智能领域,目前取得了什么样的水平?在语音识别,最近几年,可能大家开始觉得语音识别输入法比早期方便很多,很大原因就是运用了深度学习。给大家展示一张图片,在语音搜索任务方面,人的错误率接近了10%左右,而机器的错误率不到6%,远远高于人类。我们可以体会一下语音识别的这个效果(音频)。还是有一位同学听出来了,非常不错,我们可以看到,机器的语音识别能力,在经过大数据训练以后,确实做得非常好。另外一个比较典型的例子就是人脸识别,这是在LFW上的一个任务,比对两张脸是不是来自同一个人。人的错误率大概是0.8%,而机器是0.2%左右,这是两年前的结果,最近也有一些公司能够达到类似的结果。

我们也来体验一下人脸识别。最强大脑的最近一期,就是通过父母的脸来识别他的子女。节目要求是从这40个女生里找出他们的女儿,随机猜的话是1/6对吧,但是猜对的人少于1/6。

所以,在一些特定的人工智能领域,由于大量的数据,机器其实可以做得非常好。另外一个人脸识别的例子就是跨时间段进行人脸识别。最近我们做了针对走私的儿童或者是拐卖的儿童做了“宝贝在家”,用户可以把自己的照片上传到上面去,他们的父母也可以把小孩的小时候照片传上去,然后通过人脸识别技术,找出遗失的小孩。我们确实在6万张照片里,就找到了几对非常像的人脸,其中有一对还通过了DNA的验证。

我们以前认为需要专业知识的领域,现在机器也可以做。比如机器可以通过图像来判断它是不是得到皮肤癌,这个结果是斯坦福大学今年在Nature杂志上发表的,蓝色的曲线是precision record曲线,如果红点在蓝线上面,表明人做得比机器好,若在蓝线下面,表明人做的比机器差。在这几种不同的场景下,只有一个场景人做的比机器好。所以一些比较专业的智能任务,机器也能够做的比较好,相信这会对健康、医学方面产生非常大的影响。

深度学习在BAT还有美国的很多高科技公司的各个产品里,得到非常充分的应用,主要因为公司的各类场景里都积累了大量的数据。但是机器与人的智能差别巨大。我认为,人最重要的一个能力,是自我学习和创造能力。上述提及的任务就是在一个特定单点上的智能任务。

如果任务稍微改变一下,可能需要修改代码,重新收集数据,再进行训练,才能够重新在新的任务上做事情。比如,在中国大陆开发的自动驾驶系统,在香港很难应用。因为中国大陆是右行,香港是左行,对于人来说,只需稍微注意一下就可以克服,如果是自动驾驶车,需要重新开发代码,重新收集数据,重新训练,才能够做到这些。比如,谷歌的AlphaGo下围棋下得很好,如果改变围棋的规则,也需要改变代码,重新训练,机器才能够重新下围棋。

除了缺乏创造力和自我学习能力,还有一个比较重要的局限点,就是很难通过少量的标注数据学习。比如,在云平台识别图像,可能要几百万幅图,每一类可能要上千幅图,才能训练得很好。比如,机器翻译,可能需要好几千万对平行语料的句对,可以做到稍微接近于人的水平。其实人需要的数据是远远少于机器的。还有一个典型的例子就是,单样本识别任务,one-shot的识别。前年,我们用单纯的深度神经网络,效果比人差。最近,有些比较新的发展,开始做的接近人,待会我也会稍微介绍一下。如果想用比较少的数据训练得比较好,一般需要通过一些没有标注的数据,有效获取一些representation。大家可能认为,比较重要的就是非监督学习。目前为止,非监督学习的效果不如监督学习。主动探索最重要的,是自己找到重要的东西去探索。

方才提到,one-shot识别最近有所优化,主要是learning to learn,翻译为中文是学学习。若希望机器学习有保障,那么就希望测试和训练能够保持一致。采用传统方法,测试和训练不一致,所以one-shot的效果不好,现在的one shot就是直接计算loss,整个训练的过程是end to end,通过损失函数来更新,通过metalearner来学习one-shot,最后加入训练的过程。最近一个实验,就是用了这一方法,使得结果与人近似。

另一大局限就是缺乏常识。如刚才提到的无人驾驶,机器往往缺乏常识。现在,机器在控制方面能够用做的很好,但缺乏对于常识的判断。比如,前面有人招手,若机器没有见过这个场景,不知道怎么做。

人为什么会有常识?首先,人在生活中经历颇多,比如物体识别,人从小根据常识知道物体不会凭空消失。但是,繁多的常识若想灌输给机器难度很大。因此,早期的AI,图灵提出机器需要放在physical world里学习。那时,由于技术条件的限制,很难实现,目前这一问题仍然没有解决。但是,我们可以看到,如果把机器放在physical world里面学习,可能解决common sense的问题。退而求其次,就是把图像、语言等用embody的做法输入,可以更接近。基于此,我们开展图像和语言的联合学习,也希望机器能够真正在环境里学习。

这是机器阅读图片之后给出的解释,一只狗在盆里玩,其实玩是一个抽象的概念,人们很难进行解释。人可以通过日常观察知道什么是玩,机器可能通过大量视频,建立玩的概念,可以表述这种common sense的概念。

机器的另一大局限是,大量学习是通过标注的数据学习,比如图像识别、人脸识别。人另一个学习途径是通过知识学习。比如,机器可能需要大量数据,来识别两种不同的鸟,对于人而言,可以先看书、听课,通过具体描述和先前积累的知识,来学习新知识。目前,大量机器还是用标注数据进行学习。这也是人工智能在一些diversity领域很难开展的原因。比如客服,由于数据不多,很难有通用的解决方案。因此,如何让机器通过自然语言交流的方式学习?人的大量知识是通过语言(说话、书本)传递,若机器想要快速学习新任务,需要机器真正理解人类的语言。在未来,我们也希望机器利用自然语言做事,并通过自然语言反馈。人类也是用过语言来思考问题。因此,语言很重要。

因此,我们很关注构建虚拟的学习环境,让机器在简单的虚拟环境里学习。 第一步,我们将机器放置于2D的环境中,开始自主学习简单任务。之后,将机器放置于3D环境中,与physical world更接近。我们现在在X world里,virtual teacher与virtual agent交流,一开始virtual agent没有任何语言能力,他听到的是teacher说的话,看到的是2D的环境。 我们希望在agent与teacher的不断交互中,能够follow语言,能够做一些事情。最近,我们在研究,agent一边和teacher有一个问答交互,同时virtual teacher通过Q&A的方式来教agent学习语言,执行teacher说的command。在整个过程中,teacher可以通过问问题,来进行交互,训练agent。当然,在环境中,机器也会做一些navigation,如果机器的navigation做对了,teacher会反馈positive reward。这是一个完整的deepleanring的模型。有语言处理、感知、反应、行动的模块,整个模块相连,通过navigation和recognition的end to end训练,机器可以学习语言,做任务。

语言有组合性,一句话的意思可以由component进行组合。我们在设计framework时,需要学习出来的语言也具有组合性。我们发现,如果将deep learning的模块简单拼接,达不到这个效果,需要特定的复杂结构才能实现。

我们的出发点是学习很重要。虽然一开始机器做的很简单,但是之后的潜力无穷。因此,我们从最简单任务开始,保证机器有感知、行动、语言等基本能力。

通用人工智能是多领域紧密结合的研究,涉及machine learning、reinforcement learning、AI的安全性等。目前,很多大公司在通用智能领域有很大投入。比如,deepmind提出solve intelligence,use it to make the world better place,facebook、OpenAI也有很宏大的口号,百度对此也有很大的决心。

最后,来谈一下展望。这是2014年专家问卷调查的结果,问卷询问了一两百个专业学者关于何时可能会出现像人一样的人工智能。很多专家的意见不一致,甚至有些人认为永远不可能实现。相对一致的观点是在本世纪中,有50%的概率可以实现人工智能。另外一个问题是,实现通用人工智能对于人类的影响。专家的意见也不一致,也有相当一部分人认为实现通用人工智能有消极影响。

在我看来,AI的安全问题确实需要引起重视。比如,强化学习中的reward hacking。强化学习让机器优化行动策略,获得尽量多的reward,是通用人工智能必不可少的手段。reward hacking是指,当智能体能够直接绕过外界环境直接对reward操控,可以得到很强的reward。这是之前的一个实验,研究人员将电极插入老鼠的reward中枢,老鼠一动扳手,就有很强的电信号,老鼠获得很强的电信号。之后老鼠不停地扳扳手,觉得很爽。这是一个极端的例子,但是人的很多行为也类似,比如吸毒,就是对于reward的操控。因此,若智能体有了修改环境的能力,如何避免此种情况发生,这是一个需要深入研究的问题。

同时,如何确保AGI的价值观与人类一致,也是一个需要思考的问题。否则,AGI可能会变得不可控。因此,我们需要对此作出相应的准备,做更大的投入,进行更深入的思考。

徐伟和雷鸣对话:未来五年通用人工智能研究上有哪些领域会有突破

雷鸣:今天听了这些内容,我整体的感觉是我们从另外一个角度来看人工智能的问题,以前是讲它在各个行业的应用。今天我们去探讨一下人工智能更长期的发展,就是说怎么能做一个跟人一样聪明的,能学习,能推导的人工智能。这部分一点一点的来,现在我看做的就是先模仿小孩的学习过程,然后到通用的人的过程,也看到了一半的科学家认为到2050年会有人这种智力水平的人工智能出现。2050年还是远了点儿,想问一下徐伟,咱们把假设再放小一点,比如说做一个小学生水平,或六、七岁幼儿园毕业水平这样一个通用的人,你觉得大概要多久?

徐伟:其实我觉得如果它的学习能力和这个小孩的学习能力一样强的话,基本上就很快就可以达到人的水平,因为人最核心的还是他的学习能力。那如果我们说特定的一个东西,可能要比小孩相对是比较容易的,但是如果说学习能力真正达到这个水平,我认为达到成人的水平可能也快了。

雷鸣:这点我特别认可。我们有时候说一个孩子挺聪明的,从小到大都聪明,如果说他有点儿笨,就挺麻烦的。所以说训练出一个聪明的人工智能只跟输入的信息有关,它就可以不断地学习、学习,如果训练一个到六、七岁这种学习能力的就已经是通用人工智能了。所以整体来讲的话,我们在这个发展问题上并不是线性地说一岁、两岁、三岁,而是说它的学习能力跟人对比,比如说学习能力像老虎一样、像猴子一样、像猿一样的这种感觉。

徐伟:对,我觉得这样说可能更贴切一些,就是说,达到哪种物种不同的的学习能力。

雷鸣:另外一个我们挺关注的就是最近一些时间的发展,就你研究的方向和课题而言,你觉得未来五年通用人工智能研究上有哪些领域会有突破?

徐伟:比如我刚才讲到的learning to learn在字符识别上做得非常好,我觉得未来几年还会有进一步的提升,在一些更实用的任务上做得比较好。还有就是在reinforcementlearning里面有很多topic有人已经非常关注地去做了,比如planning,intrinsic motivation,当大家开始比较投入地去做的时候,我认为在未来几年都可以看到显著的进步。

雷鸣:现在很多同学都在用一些开源的机器学习框架,其实我们做机器学习很大程度上模型的结构设计是根本,比如说做图像肯定是CNN,可以做调整、变形和深度之类,如果是自然语言,更多的就是RNN或LSTM。如果模型选错了,基本就是灾难性的。模型方向选对了又开始调模型多少层,每层多少个参数这些,到最后才上数据去训练,看数据量多少,速度多快。现在有没有一些模型不光学节点的参数,而是能够在学习过程中自己有一些动态的调整能力,这部分现在有没有相应的研究?

徐伟:对,是有这部分的研究的,就是通过强化学习来选择模型的结构。有一个是RNN方面的。

雷鸣:我感觉人的大脑有点儿像机器学习的模型,大脑脑区的分布和脑区之间的连接是相对固定的,每个人都差不多。如果看猿和人的大脑,脑区分布和脑区连接确实不一样,从神经元的数量来说猿和人差得不多,而大象神经元的数量比人还多。如果说一个模型,我们用图像把它训练成CNN模型,用语言训练,它自动生成LSTM模型,将来会不会有这方面的进展,就是不光像大脑在训练,还代表大脑本身进化的过程,如果这样的话进展速度会更快,你觉得有没有这种可能性?

徐伟:通过进化的方式来学习结构早十几年前也有人开始这样做了。通过evoluation的方式来寻找结构。

雷鸣:最近进展似乎并不快。

徐伟:对,目前感觉没有太多人投入这方面。

雷鸣:刚才神经生物学角度来说,智力的突变更多来源于模型结构的变化。CNN、RNN等都是从神经网络全连接,然后变了一下结构,突然发现解决问题就特别的好。我们现在大部分论文都是在尝试提出更好的网络结构,所以我刚才说的可能复杂度更高一些。最终假如说有一种方法能够通过海量数据,自己能够从一种简单结构不断地去改变,把自己学习成一种更适应的结构。这种学习就更高级,我感觉就是把大脑的进化含在学习过程中了。这个实现或许会再晚一点,因为通用学习在人脑有这个结构的情况下还没有模拟到,也许进化论会晚一点,对吧?

徐伟:嗯,我觉得这个问题从从理论上说是非常好的一个事情,但我觉得一个最大的障碍还是计算能力。因为每换一个模型结构,又得重新训练一遍。如果要真的找到一个非常好的结果,可能不知道要试多少次。而且每一个都要训练一遍,这个会是非常,非常大的计算量。随着计算能力的发展,这有可能是个比较好的方向。

雷鸣:因此我就想到量子计算。另外你刚才提到一个有意思的事情,就是现在我们大部分的学习其实并没有加一些常识。那常识加入这块目前进展怎么样了?比如说你刚才讲到学习鸟的分类,既然已经知道一些信息,比如一个鸟比另一个鸟头大,就直接加到智能学习里面去。现在这块有没有什么进展?从结构如何设计或其他研究方面?

徐伟:你刚才说的那个鸟的头大和常识还有些差别,这更多的是把一种语言或规则引入学习。这方面的工作还是有一些。

雷鸣:这块已经有一些比较通用的框架了吗?比如说人脸识别,识别是哪个人种,相关的描述直接加进去,现在有没有开源系统已经能够支持了?

徐伟:你刚才说的这个具体的问题,比如说人脸识别,加一个种族或者年龄之类比较具体的一些问题,可能还是相对比较好做的。只是说一个比较通用的,问到一个问题可能都不知道它用什么方式说出来,这样的话会比较困难一些。

雷鸣:就是说已经可以支持,但是没有一个特别通用的结构直接可以把各种尝试往里输。另外一个就是你刚才提到一个通用智能的训练模型,有语言理解部分,图像理解部分,action,回答等。这里面的视觉和语言是事先把训好的模型直接放进去,还是重新开始拿很大的数据把它们训出来?

徐伟:在我们这个工作里面,这两个都是完全是从头开始训的,就是没有任何先验的视觉和语言的知识。我们这个训练经历了几十万的试行。

雷鸣:看来这个工作量还是非常大的。刚才最后徐老师最后讲的AI安全问题,AI的安全翻译过来就是人的安全问题。我看了很多专家的调研,咱们在班里也做个调研,到2050年,也就是在未来三十年,觉得通用智能能够达到人类智能的同学请举手。看来不多啊。咱们的同学还是谨慎的乐观。你的观点是什么?

徐伟:我觉得到2050年,通用智能达到人类智能的可能性比我得老年痴呆的可能性大一些。

雷鸣:所以你的可能性还不到50%。

徐伟:我是要防止我得老年痴呆的。如果人工智能真有什么危难的话,还是要提前做好准备的。

雷鸣:如果通用智能达到人的智能水平的话,能不能想象一下人和机器到底是一种什么关系?很多人认为人工智能达到这个水平之后是非常好的,终于有一个东西比我还聪明。那这个时候怎么去想象这个事情,就是说这人和机器之间是什么样?比如说,机器干所有的活儿,人天天享受,还是什么样子?这个你有没有跟一些朋友聊过?我们随便聊一聊。

徐伟 :我觉到那天的话,可能就两种可能性,要么是非常好,要么是非常坏,这是我个人的想法。 就是说,不会说稍微好,或者稍微坏。如果是非常好的话,那是什么状况呢?那么人工智能就完全是我们想让它们做什么,它们就做什么,做的事情还总让我们非常满意,感觉非常贴心。我们就可以去做我们更想做的一些事情。这应该是个非常幸福的时期,大家还是有一定的概率可以经历到那种状态的。如果是非常坏的状况,那就是非常坏了,这概率有多大也很难说。

雷鸣:我们一直谈安全性,就是希望说我们订一套规则,或者说某种算法也好,规则也好,能够对机器滑向坏的那一端做一个限制。但其实从历史上来看,一个阶层或一个人有极端权利的时候,往往经过时间的洗礼,走到某个点就会出现意外。回过来说机器,比如我们刚才讲它现在是一个老鼠的智力水平,到三十年以变成人类智力水平,再过三十年也许超过人类智力水平,有没有可能老鼠定一个规则,人都破不了?这种可能性存在吗?

徐伟:我觉得这是非常需要研究的问题。谈不上什么规则,因为我们就是这么造它的。就是我们造一个东西,让它能够完全按照我们造的方式来服务,大家想起来觉得好像应该是挺有可能的,但是其实还是非常难的,还有很多研究问题需要解决。比如说刚才说到那种它让我们感到幸福的状态,这个幸福怎么定义?是不是说让你生活在matrix里面你就幸福了?人对目标的理解是基于很多常识性的东西,虽然没有直接表述出来,但是有隐含的含义。能不能让机器具备那样一种理解,其实也是非常需要去研究的事情。

雷鸣:未来的确是不可知的。没有谁真的能够通晓未来。但去思考未来又是最重要的,比如在座的同学们,毕业以后无论是工作还是创业,这些选择都是基于对未来的思考。多思考是没有错误的,但说到未来,感觉仍像是一个完全无法预知的概率事件。这有点像量子理论里面的不确定原则。感觉未来应该是这样的,但当你窥视时,未来又不是那个样子的了。

好,下面我们就进入到同学提问的环节。一个同学问,数据标注是做研究的一个大挑战,最近对抗生成网络很火,这一技术对于数据标注的解决有没有帮助?

徐伟:这个想法是自然的,大家可以去尝试,但是目前还没看到具体例子。

雷鸣:通用人工智能未来5-10年,会不会有一些实际的应用?

徐伟:未来5到10年,人工智能落地还只是在特定的领域,比如医药、金融等等。通用人工智能,主要还是要看学习的能力。如果通用AI只是达到猿猴的水平而不是人类的水平,应用还比较难,可能就只能应用于游戏。

雷鸣:有同学提问,人工智能在很多领域都变得越来越强,在围棋、游戏等很多方面都打败了人类,人忽然发现自己什么都不如机器了,人的满足感从何而来?

徐伟:怎么会有这种想法呢?人类加减乘除比不过计算器,也不会有不满足感啊。可能过一段时间,大家对于下棋这类事情也会抱这样一个态度,认为这不算是太智能了。

雷鸣:线上观众提了个问题,从心理学上来看,人还没有搞清楚自己的意识。通用人工智能需要理解意识吗?通用人工智能不断发展,最后会产生意识吗?

徐伟: 这是研究圈内强人工智能假设和弱人工智能假设之间的辩论。强人工智能有可能是指具有很强的智能,但并不拥有意识。 现在大家其实不太关心是否有意识了,有没有意识不重要,我个人也是这样认为,只要达到人的智能,就可以了。

雷鸣:在这个问题上我和徐伟的观点类似。人类意识究竟是一种对智力的超越,还是其实是智力范畴内的一个东西?其实很多时候我们做出了决策,但自己并不清楚是如何决策的。这似乎是一种非理性的决策,但从更高的层面来看,我们所有的决策都受到我们的历史环境、经济条件等因素的影响。其实你的大脑里面还是有一个很大的函数的,一个F函数,你的历史、环境、人际关系、收入等等综合影响着你的决策。你拍脑袋的决定实际上并不是拍脑袋产生的。之前有一个研究,通过对一个人在社交媒体上点赞的分析,就能得到他的某种情绪模型。然后根据这个模型,可以对这个人对一些言论的反馈做出预测。预测准确度比他身边的人还高。

所以说,我们大脑的一些功能,比如人脸识别,可能是笼罩在我们大脑里的极其复杂的运算,我们暂时无法解释而已。但这并不表示它不是运算的结果,而是突然出现的某种神器的东西。比如让人工智能下围棋,最早认为人工智能不可能具有人类下围棋时的那种大局观。但是现在我们看到,人工智能的大局观比人类还好。有时候局面太复杂,人脑也算不出来了。但不管怎么说,这还是一种运算,不管是基于贝叶斯还是基于技术经验。当然这种运算的复杂度很高,人类现在还无法用一个函数把它描述得很清楚。当机器拥有了大量的数据、大量的运算能力后,有可能做得比我们更好,而且有可能每次都很好。人类的灵感不是时时产生的,神来之笔无法每次需要时都产生。

当机器智能达到很高的水平之后,这些事情会更大概率的出现。所以说它背后其实还是一种运算。它可能是我们大脑里面一个很神奇的函数,它的最大值是我们的某种价值观,比如个人的幸福感等等。一个人能根据环境、条件等等综合做出一个选择,背后其实是一个很理性的过程。以前我们无法界定什么是幸福感,现在从脑科学的角度来看,它可能是你大脑里某个机构发出了一个信号,多巴胺分泌了一下,然后你就感到了幸福。它并没有那么多神奇的东西,最后还是大脑运算之后激活了一个地方,然后你就幸福了。

我们再看下一个问题。机器学习大部分是基于归纳的,人类有演绎和推理的能力,在推理方面,机器现在有没有什么进展?

徐伟:推理目前还是一个不太成熟的方向。但是和推理比较相关的任务,比如规划,去年NIPS则发了研究论文,这和推理比较类似。推理上未来几年可能会有进展,但是这和机器理解语言的发展有关,需要先把语言的问题解决。

雷鸣:是的,可以想见,如果这方面的研究越来越好的话,人类能做的事情可能就越来越少了。又有一个同学问,有没有一个明确的定义,可以定义通用人工智能达到了人类的水平?

徐伟:对,其实是有的。因为从自从图灵测试被提出来之后,也有很多人说图灵测试可能有很多问题,也提出了一些不同的测试标准,比如说有一种测试,看机器能否做一个办公室职员,或者能否做一个合格的家用机器人。这些都是看它是否能在一个应用场景下胜任。而核心的一点,我个人认为是学习能力,就是说拿一些新的任务给它学,看看小孩能否学会,然后对比,看机器能不能学会。如果给它一百个不同的任务,它都能够学会的话,那就说明它确实非常厉害了,而不是说拿一个固定的任务。一个固定的任务,只要有足够的Engineering,我觉得在现有的技术总是可以让机器做好的。

雷鸣:我可不可以这么认为,通用人工智能就跟人一样,如果不单独加任何跟开车有关的代码,直接让它学开车,它如果学的速度跟人一样快,或者说直接让它去学数学,它也学的和人一样快,这样就是达到了人类的智能水平。

徐伟:对,是这样的。

雷鸣:这还是挺可怕的,因为这么多年过去了,人类的学习速度并没有太大提升,但摩尔定律告诉我们,计算能力每两年会翻一番,它现在一个月学会的东西,两年以后半个月就学会了,以后可能一周就学会了。而且它学完以后就不用再学了,可以传递给别的系统。这么看的话,一个超级智能是有可能产生的。这和深度神经网络的结构是有关的。那么,有没有一种理论能够证明,深度学习模型比其他方法好,还是说这是一种实践的结果?

徐伟: 最重要的还是来自于实践。在实践中取得了这么好的效果后,一些研究者开始尝试从理论上做出解释,它的效果为什么会这么好。 最近可能有一些这样的研究,就是在一些特定的模型结构下,在一些假设的状况下,来证明它能找到的解总是和神经网络的全局最优解接近。不过这些研究还是很难解释深度学习最近取得的成功。所以说目前还没有非常完美的理论解释。

我来评几句
登录后评论

已发表评论数()

相关站点

+订阅
热门文章