人工智能前沿思维,杨立昆最新力作,这本书一定不要错过!

人工智能
后台-插件-广告管理-内容页头部广告(手机)

本书赞誉

人工智能的崛起时刻

特伦斯·谢诺夫斯基

美国四大国家学院(国家科学院、国家医学院、国家工程院、国家艺术与科学学院)院士,《深度学习》作者

本书讲述的是人工智能(AI)历史上一个绝无仅有的时刻发生的故事。

在21世纪机器学习成为现实之后,人工智能也迎来了自己的关键时刻。在机器学习快速扩张的能力背后是活跃的研究圈子,而在这个圈子里,杨立昆是举足轻重的先行者。这一突破可以追溯到20世纪80年代的神经网络革命。我第一次见到杨立昆是在法国东北部小镇莱苏什的一次物理学会议上,那时候他还是学生,而他当时研究的内容后来演变成反向传播算法。杰弗里·辛顿(Geoffrey Hinton)和我此前在统计力学中得到灵感,向有隐藏单元的网络引入了玻尔兹曼机器学习算法。当时,神经网络还是新兴领域,物理学、心理学和工程学的领军人物鲜有涉足,也几乎没有人能预见到机器学习有一天会对世界产生这么深远的影响,但杨立昆已经把实现这个目标当成了毕生的事业。

后来杨立昆成为杰弗里·辛顿的博士研究生,再后来进了贝尔实验室当上了研究员,在此过程中,他一直在为这一目标不懈努力。他构想了一种神经网络架构,可以识别图像中的物体,这就是LeNet。随着计算机变得越来越强大,LeNet的规模也越来越大,性能不断提高。当时,关于计算机视觉的研究基本上都在强调几何特性,每添加一个对象都意味着要手动加入新的几何特征,这样才能将新对象与所有已有对象区别开来,而且需要有这个领域的专业知识,以及大量人工操作才能做到,因此进展缓慢。而在神经网络中,将不同对象区分开的特征可以从足够大的图像数据集里学习到。互联网提供了大量图片,计算机内存的增长速度也比处理能力的增长更快。杨立昆还有另一个有利因素,那就是他的架构很容易就能分布到多个并行工作的处理器上。

GPU(图形处理器)实际上可以有效模拟神经网络,这样能让计算能力提高上百倍,并让训练多达十余层的多层网络成为可能。杨立昆继续改进自己的神经网络架构,到最后形成了卷积神经网络(CNN)。尽管他的表现已经达到世界顶尖水平,但他的论文还是被计算机视觉领域最重要的大会——CVPR(国际计算机视觉与模式识别会议)拒绝了。

我还记得全世界是什么时候开始关注杨立昆的工作的。那是2013年在美国塔霍湖边举办的NIPS(神经信息处理系统大会,2018年已更名为NeurIPS)上,在识别当时最大的图像数据库“图像网”上的22000种不同对象的1500万张图片时,卷积神经网络将差错率降低了18 %,杰弗里·辛顿撰文介绍了这一成绩。此前差错率在以每年不到1 %的速度缓慢下降,因此这个成绩相当于整个计算机视觉领域20年的研究成果。从那以后,神经网络架构层级越来越深,也越来越复杂,而计算机视觉以此为基础取得了长足进步。

就在那一年的NeurIPS上,马克·扎克伯格(Mark Zuckerberg)在演讲中宣布,杨立昆将成为FAIR(脸书的人工智能研究实验室)的创始负责人,这是脸书为追赶谷歌而迅速成立的新部门,而谷歌那边雇用的是杰弗里·辛顿。杨立昆作为研究人员和工程师来说聪明绝顶、成就卓著,但管理大型的人工智能团队仍然是一份艰巨的工作,也需要有管理才能(跟做科研工作完全不同)。随后杨立昆组建了强大的团队,对脸书的业务产生了巨大影响。那天晚上在脸书赞助的一个招待会上,有人为我引见了扎克伯格。听说是我在负责NeurIPS,他并不怎么吃惊,但在告诉他我也是神经科学家之后,他问了我好多问题。很明显,他读过很多文献,问题也都切中要害。他最感兴趣的是心理学家所谓的心智理论,这是我刚刚组织的一个专题研讨会的主题,主要讨论我们自己和他人的内部模型。他让我推荐给他一份阅读清单。这个领域在心理学中尚处起步阶段,扎克伯格对这个领域这么有兴趣让我很惊讶,后来经过杨立昆解释我才恍然大悟。杨立昆说,在世界上所有公司中,脸书拥有的个人数据最多,用户也最多,有了人工智能,脸书就能为每个人的心智活动创建一个理论,做到甚至比这些人自己都更了解他们。

卷积神经网络的架构受到了灵长类动物大脑中视觉皮层的启发。视觉皮层中有多个分成不同层级的视觉区域,专门用来处理不同的视觉特征。在应对新环境方面,大脑比当前的人工智能系统要灵活得多,能力也要强得多。但现在,卷积神经网络在帮助我们了解大脑是怎么看见的,又是如何做出决定的方面,带来了良性循环。我们发现的大脑工作机制越来越多,这一反馈也增强了人工智能的能力,而如果只是以符号、逻辑和规则为基础的传统人工智能,就绝对不可能做到这一点。20世纪研究人工智能的人并没有意识到学习有多强大,不知道这是生物系统的核心要素,因此这就成为21世纪驱动人工智能向前发展的最大动力。还有一个很重要的区别是,以大脑级别的大规模并行架构为基础的算法比以逻辑规则为基础的算法要好得多,后者会出现组合爆炸。最后一点是,大规模网络模型中活动向量的表征能力和语义内涵都比符号要强得多。这么多计算方面的优势同时具备,极为少见。

我们站在一个新时代,它是信息时代的开端。现在的人工智能系统就好比莱特兄弟的第一次载人飞行。航空业经过数十年、上百年的不断创新已经得到了极大改善,相信人工智能领域也会如此。今天的喷气式飞机大大提高了我们的出行能力,而人工智能也将让我们变得更加聪明,并大大提高我们的生活水平。理查德·费曼(Richard Feynman)说过:“我无法创造出来的东西,我就理解不了。”机器能思考吗?机器会有意识吗?如果我们创造出了能学会思考的机器、能产生自我意识的机器,这些人工智能领域的大问题的答案也就昭然若揭了。杨立昆的这部著作,给我们讲述的就是人工智能在我们面前崛起的时刻,也是这个绝无仅有、将载入史册的时刻发生的故事。

所有努力都是为了提升概率

张宏江 智源研究院理事长

国际象棋大师加里·卡斯帕罗夫(Garry Kasparov)曾这样总结自己的常胜秘诀,“我并非根据棋局结果考虑如何调整落子,而是从系统角度,思索怎样改进自己思考的方式”。作为将人工智能带入崭新时代的先锋,杨立昆在《科学之路》中,详细记录了他对人工智能过去和未来的探索与思考;而同样重要的是,他深刻剖析了关于如何做出推进人类社会大幅向前发展的研究背后的系统与规律。

历史上多数研究成果的出现是偶然事件,没人能规划出来,所有努力都是为了提升概率——汇聚优秀的研究人员,为他们提供能够碰撞思想、发现问题、寻找协作伙伴的社区环境,对这些“人”而非“项目”进行资助,让他们能站在未来思考重要的问题,随着时间的推移,通常结果就会显现。

青年时代杨立昆在欧洲的研究之路,就像一次孤立无援的远征。他的本科专业是电气工程,导师对他关注的话题几乎一无所知。毕业后,他只能在法国的一个小实验室继续研究,同样由一位“外行”教授指导,但他还是获得了研究需要的资源。指导教授告诉他:“我不知道你在做什么,但你看上去是一个很聪明勤奋的人,所以我会签署这些文件。”

转折发生在1985年春天,在阿尔卑斯山麓举办的研讨会上,杨立昆遇见了贝尔实验室新成立的神经网络研究小组,三年后,被该小组聘用并移居美国。他还遇见了特伦斯·谢诺夫斯基,并通过他与杰弗里·辛顿结缘。这次会议将一小群研究人员集结在一起,他们将形成一个紧密联系的社区,创建新的人工智能模型。

做非渐进性的研究,需要将研究人员“置于未来”。在计算机领域,方法之一是提供强大的计算能力,让研究人员可以用简便的方式、无须经过特殊优化的手段来重复尝试和探索,还能让他们在尝试新想法时,避开“过于实用”的陷阱。就如杨立昆提到,在贝尔实验室,曾有人告诉他“靠节省开支是无法混出名堂的”。刚到实验室,他就独自拥有一台Sun 4计算机;而此前在多伦多,同样一台计算机则由40个人共用。在贝尔实验室,做数字识别研究,他可以使用美国邮政近万张真实手写图像;作为对比,之前他只能利用一个很小的手工数据集来测试卷积网络。入职两个月,他就创造了以自己名字命名的LeNet,在数字识别方面创造了纪录。

常规的同行评审往往“过于合理”,以至颠覆性的研究很难找到真正的同行。对于“不合理”的方向,方向内的“小同行”更有发言权,而且他们知道谁是最优秀的人。

即使到2006年,参与评审杨立昆论文的人工智能同行也对他并不宽容。因为彼时的深度学习,还是一个不受重视的小方向,杨立昆2004—2006年关于这个方向的文章,几乎被最重要的学术会议——ICML(国际机器学习大会)、NeurIPS、CVPR、ICCV(国际计算机视觉大会)等都拒绝了。

2006年之后,随着他们的人际圈逐渐扩大,审阅专家才普遍开始支持他们的工作。不过即便这样,2007年在向NeurIPS组织者提出举办一个深度学习研讨会时,还是被否决了。还好他们有CIFAR(加拿大高等研究院)提供的资金,“私设”了一个研讨会,有300多位参与者,成了那年NeurIPS上最受欢迎的研讨会。

黄金时代的工业实验室曾是变革性技术最重要的发源地,例如杨立昆工作与实习过的贝尔实验室和施乐帕克研究中心(Xerox PARC)。而如今,虽然这些工业实验室仍然存在,却不再像20世纪中叶那样有效。仔细观察你会发现,黄金时代的工业实验室需要的条件,今天不容易复制,例如,几乎占据垄断的行业地位、前沿研究主要依靠内部完成、研究可以高效地为企业创造利润等。

杨立昆在贝尔实验室辉煌的末期加入,1995年经历了AT&T(美国电话电报公司)对公司的一次拆分;1996年,作为部门负责人,他不得不寻找“实用”的新方向,长达5年的时间里,他基本没有再涉足机器学习研究。2001年年底,AT&T再次被拆分,裁去一半研究人员。好在他提前在NEC(日本电气股份有限公司)普林斯顿实验室谋得了一个职位。然而一年后,NEC遇到经济危机,开始给实验室施压,也逼迫实验室转向更容易落地和变现的应用。

那次人工智能寒冬持续了10年,幸运的是,DARPA(美国高级研究计划局)和CIFAR对杨立昆等人的想法感兴趣,分别提供了多年支持,让这群人仍能聚集在一起。这些人利用资助组织讲习班,为学生们开辟了一个科学小天地。

今天的“创新生态系统”主体由以下这些部分组成:学术界擅长产生新想法,初创企业擅长将高潜力产品推向新市场,企业研发在改善现有产品方面无与伦比。但组成这个系统的机构差异很大,每个机构的体制都有限制因素。杨立昆也描述了他在脸书挑战这些限制所做的努力。

智源研究院希望通过构筑协作社区,打造用于未来研究的计算和数据平台;同时,集结最优秀的小同行,专注未来可能产生原始创新与长期影响的领域(包括过往投入不足、重视不够的领域)等一系列机制,让创新系统更高效地运行。正如我一开始所提到的,所有努力都是为了提升概率,希望我们的努力能让中国出现突破性成果的概率增加,希望本书读者亦能加入我们的行列。

2021年7月于北京

在无人区创新

贾扬清 阿里巴巴集团副总裁,高级研究员

2014年,我供职的谷歌大脑(Google Brain)团队在计算机视觉领域著名的标准测试比赛ImageNet上,用一个22层的深度神经网络获得了第一名。在给这个网络起名字的时候,我们玩了一个小小的文字游戏:将Google的l大写,即写成“GoogLeNet”。比较“极客”的读者可能会马上发现,这是在致敬1989年出现的,也许是那个年代最著名的神经网络LeNet。在计算机还处于刀耕火种的年代,LeNet就已经被用在全美国的邮政系统中,来读取每一封信件上面的邮政编码。而LeNet的作者,就是今天为大众所知、图灵奖的获得者,也是这本书的作者杨立昆。

30年前,神经网络走过了非常崎岖的道路。最初的成功过后,神经网络因为本身训练的复杂性、结构的不确定性、对数据量的依赖性、理论的不清晰性等,在2000年年初的一段时间之内逐渐被更加有理论依据的凸优化、核方法、概率图模型等取代。杨立昆和其他两位同获图灵奖的大师约书亚·本吉奥和杰弗里·辛顿回忆起自己在这段时间的坚持的时候,笑称这是“deep learning conspiracy”(“深度学习的阴谋”),而他们自己是Canadian Mafia(“加拿大黑手党”),在各自所在的学校中,他们坚持自己所相信的神经网络研究。

学术界对于神经网络的负面观点是比较普遍的。例如,2010年,我和奥里奥尔·温雅尔斯(Oriol Vinyals,谷歌子公司DeepMind星际项目的首席科学家)在加州大学伯克利分校捣鼓神经网络的时候,我们的前系主任笑称“扬清和奥里奥尔在搞mumbo jumbo(大而无当的东西)”。当然他让我们继续自己喜欢的研究,这也是学术界的开放精神之所在。

但是从ImageNet的成功开始,神经网络,或者说“深度学习”,开始以摧枯拉朽之势在各个领域展示出它的优势。感知领域是最先被征服的:让计算机看懂人看得懂的图片,听懂人听得懂的声音,读懂人读得懂的文字。基于此,人工智能算法迅速开始在其他领域崭露头角,例如棋类[AlphaGo(阿尔法围棋)]和游戏、自动驾驶、人工智能医疗、公共服务等领域。可以说,今天人工智能已经成为一门“显学”,成为任何技术领域都值得了解的一个称手的工具。

从2013年加入脸书开始,杨立昆就一直领导着它的研究部门FAIR在人工智能的前沿无人区创新。FAIR集聚了大量人工智能的优秀学者,其中不乏华人的面孔,例如计算机视觉专家何恺明、增强学习和理论研究专家田渊栋等。我在脸书工作期间,一方面构建Facebook AI(脸书AI)的工程底座,一方面也参与和见证了Facebook AI给社区带来的各种成果,例如ResNeXT、Detectron、FAISS等算法,以及PyTorch通用人工智能框架、ONNX业界模型标准等。Facebook AI多年的成就,和杨立昆一直以来对于人工智能的孜孜追求是分不开的。

作为一位人工智能先驱,杨立昆对人工智能的未来也有着非常深刻的思考。他的思考一些是技术上的:如何通过自监督学习等方式,让人工智能走出数据依赖,使之更像人一样学习和进化?一些是伦理和社会学上的:如何保证人工智能服务于人类的福祉,而不被用到错误的道路上去?只有了解科学的人,才能更加深刻地洞察科学背后的社会意义和风险,杨立昆在这本书中所分享的思考,值得我们每一位感兴趣的读者细细咀嚼。

最后说一些和技术无关的小事情。杨立昆在生活中是一位非常风趣,又带着一点极客风格的人。在他的主页以及脸书页面上有各种风趣的小吐槽,例如他和SVM(支持向量机)的创始人之一弗拉基米尔·瓦普尼克(Vladimir Vapnik)一起创作的带有二次元风格的笑话,“All your bayes are belong to us”(“你所有的贝叶斯都属于我们”)[1]。他在2017年造访中国,来之前有朋友和他说在中国人工智能很热,“有可能走在路上就有人认出你哦”。他回到美国之后很开心地说,他在上海博物馆门口果然遇到两位学生,很兴奋地拉着他合影。杨立昆评论道,既然我真的被路人认出来,那中国一定有无数的人对人工智能怀着无比的热情。

科技改变生活,我有幸在国内见证着人工智能的蓬勃发展;科学无国界,我也有幸为杨立昆的这本新书写序。希望这本书能够给我们带来更多面向未来的思考,希望读者朋友能把这份热情转化为人工智能蓬勃发展的下一个世纪。

[1] 参见http://yann.lecun.com/ex/fun/index.html。

从科学思考到科学思维

吴军 计算机科学家,《智能时代》作者

我非常荣幸能有机会为图灵奖获得者杨立昆博士的新书《科学之路:人、机器与未来》撰写序言。

杨立昆博士因为在深度学习方面的杰出贡献获得了2018年度的图灵奖,他的大名在中国的计算机科学界和企业界几乎是家喻户晓。他这本结合了自传和科普的新书非常值得一读,无论是学术界、工业界的人士,还是普通读者,读了之后都会获益良多。

杨立昆的成功经验

在《科学之路》一书的前言部分,杨立昆博士介绍了自己求学和科研的经历。他的求学经历和对教育的理解在当下对中国家长非常具有启发意义。杨立昆是法国人。在法国,如果想要成为任何一个领域的精英,通常要进入招生人数非常少的高等专科学院(grandes écoles,也被称为大学校),比如想做科学家和工程师,就需要进入巴黎高等师范学院(ENS)或者巴黎综合理工学院这样的精英学校学习。而为了考入这些录取率极低的学校,又要花两年左右的时间先学习大学预修课程备考。我想如果一个中国家长在法国,会让孩子走这条路。但是杨立昆却走了一条与众不同的求学道路,他高中毕业后就直接进入一所名气不算太大的大学——巴黎高等电子与电工技术工程师学院(ESIEE)学习。杨立昆做出这样的决定有两个原因:其一,这所大学不需要参加预科课程的学习和考试就能直接申请;其二,在这所学校,他可以获得更多的学习自主权。杨立昆讲,他用自己的经历证明了通过激烈的考试竞争进入名校,不是科学成功的唯一路径。

杨立昆在人工智能领域的研究生涯,可以追溯到他在大学时广泛地阅读课程之外的经典科学著作。在他读书的年代,人工智能是一个热门但是发展并不成熟的研究领域。杨立昆对此有非常大的兴趣,并且阅读了包括诺姆·乔姆斯基(Noam Chomsky)等人在内的很多科学家的论著,特别是苏联伟大的数学家、公理化概率论的奠基人柯尔莫哥洛夫(Kolmogorov)的著作,这为杨立昆打下了坚实的数学基础和计算机科学理论基础。从大学开始,杨立昆就沉溺于人工神经网络的研究,并且敏锐地注意到这个研究领域一个新的技术方向——神经网络的反向训练。后来他进入当时的巴黎皮埃尔和玛丽·居里大学(今天的索邦大学)攻读博士学位,并且在反向训练上取得了卓越的成绩。他的成果很快就有法国一家公司买单,而且让他得以进入当时学术氛围非常自由的贝尔实验室工作。杨立昆用自己的经历告诉我们,接受教育重要的是获得知识本身,而不是获得名校的光环。在以后的学术生涯中,杨立昆一直保持这种特立独行的做法,特别是在全世界都不看好人工神经网络这个研究领域的时候,他依然投身到这项研究中。

杨立昆进入贝尔实验室时,正赶上那个世界科学殿堂最后的辉煌时期,但是很快这个庞大的实验室就解体了。所幸的是,杨立昆得以在纽约大学担任了教职。不过,当时正赶上人工神经网络研究的低谷,虽然杨立昆坚信这项技术会在图像识别领域大放光彩,并且设计出了一个简单的人脸识别系统,但是他的成果并没有引起太多科学家的重视。从2003年到2013年大约10年的时间里,杨立昆和他曾经的领路人杰弗里·辛顿等人一直在默默地从事着各种人工神经网络算法特别是卷积网络算法的研究。他们的成果当时并不引人注目,但是正是这些研究成果,奠定了今天深度学习算法的基础。2013年之后,随着并行计算的进步和数据量的增加,以人工神经网络为基础的深度学习突然在很多应用领域显示出巨大前景,并且在一个又一个应用中,比如人脸识别、语音识别、机器翻译、计算机博弈,取得骄人的成绩,杨立昆等人的工作一下子轰动了全世界,并且让他和辛顿、约书亚·本吉奥(Yoshua Bengio)一起获得了计算机科学领域的最高奖——图灵奖。

如果要总结杨立昆的成功经验,我们可以用4句话来概括:

• 求学是为了知识本身,而不是文凭;

• 广泛地阅读高水平的专业著作,培养科学的品位;

• 特立独行,做自己感兴趣的事情,即便那件事在短时间内不被人看好;

• 长期的坚持。

人工智能的本质

《科学之路》一书的第二部分讲述了基于深度学习的人工智能的原理。虽然杨立昆博士使用了一些公式,但这部分内容依然通俗易懂。

杨立昆博士用几个例子讲述了今天人工智能的本质,就是数学公式+大量的数据+计算能力。

首先,我们要将模式识别等问题转化成数学公式。今天计算机的智能从实现方式上讲完全不等同于人的智能;但是,从结果上讲,它和人的智能等价。你可以认为这是两条殊途同归的道路。杨立昆博士用一些典型的模式识别示例告诉我们人工智能是如何实现的,读者朋友即便对里面的公式细节不感兴趣,也能体会到人工智能和人的智能之间的不同。不过,计算机在获得智能的方法上,有一点和人是相同的,那就是从观察到的现象中总结出规律,然后用规律再来预测现象。杨立昆在书中举了伽利略研究速度的例子,伽利略通过观察找到了物体运动的规律并且将它变成了数学公式,然后再把这个公式应用于计算各种运动物体的速度。机器学习也是如此,只不过机器学习的公式不那么直观。

其次,我们需要获取数据,供计算机进行学习。在任何人工智能的应用领域,原始的数据,比如图像本身,都是无法直接用来学习的,这中间要进行一个转化。这个转化的过程被称为特征提取,简单地讲,就是将真实世界的目标对象转化成计算机能够读懂的数据。杨立昆博士用模式识别的例子说明了特征提取是如何进行的。当然,如果读者朋友不想关心具体的步骤,至少需要明白一点,那就是计算机学习需要大量的数据。

最后,当数据量大了之后,就需要数学模型足够复杂才能反映出大量数据中所包含的各个细节。虽然奥卡姆剃刀原理通常很有效,但是在机器学习领域并非如此。事实上,过去基于人工神经网络的机器智能水平之所以不高,就是因为那个网络过于简单。因此,杨立昆等人提出了更为庞大而复杂的深度学习人工神经网络。于是这就遇到了第三个问题,计算能力的问题。杨立昆博士对这部分内容没有做太多的论述,毕竟这部分工作主要是由谷歌、脸书和亚马逊等公司的工程师来完成的,而非科学家关注的重点。

人工智能的应用

《科学之路》一书的第三部分讲述今天人工智能的各种应用,从语音和图像识别、自然语言对话系统,到自动驾驶汽车和医学影像识别,这些名词大家都不陌生,但是如果想了解其中的细节,杨立昆博士的讲述既权威,又直白。

人工智能的局限性

《科学之路》一书的第四部分,也是最后一个部分讲述今天人工智能的局限性,这包括技术上的不足之处,以及人工智能所带来的社会风险。这部分内容是各种介绍人工智能的图书常常忽略的。杨立昆博士提醒我们,所有技术革命都有其阴暗面,但是他坚信这些问题能够得到解决。他在书的最后还谈了一些有趣的话题,比如机器人是否该拥有权力,又该遵守什么样的法律。

总的来讲,这是一本全面介绍人工智能技术,兼顾科普和专业论著特点的鸿篇大作,其中最有价值的部分是杨立昆博士作为深度学习算法的发明人之一,讲述他如何思考机器智能的问题,如何将这种现实世界里的具体问题转化为计算机能够处理的问题。从这个角度上讲,它又是一本教科书,教大家如何思考科学问题。我相信通过阅读这本书,各个层次、不同背景的读者朋友都会有巨大的收获!

2021年6月6日于硅谷

以批判性思维持续学习

韦青 微软(中国)公司首席技术官

近年来,以机器深度学习为代表的人工智能技术得到了突飞猛进的发展,在一些比较成熟的应用领域,人工智能技术正在实现从理论研究到工程实践的飞跃,开始对人类社会做出越来越大的贡献。但与此同时,当越来越多的企业了解到人工智能的巨大功用,并且迫不及待地尝试利用现有的机器深度学习理论与方法,去开拓新的人工智能应用领域时,却发现结果往往不尽如人意。这就产生了一个很有趣的现象,大致可以描述为:“人工智能作为一门科学在研究领域的进步”与“人工智能作为一种工程实践在现实社会中的应用落地”之间的矛盾。

产生这种矛盾的原因很多,各家有各家的难处,但总结下来,尤其是在企业的实际应用过程中,主要集中在三点:

第一,企业的决策者与业务部门对于机器智能能力的期望和技术部门真正能够实现的机器能力之间的落差。这个问题可以通过大家一致努力的学习来解决,但是即使解决了这个落差,在具体实现之前也会出现第二个现实问题。

第二,企业为了拥有这种机器能力而在资源与时间上的投入和技术部门为了实现这种机器能力所需要的资源与时间的落差。这个问题可以通过大家共同商讨、分析和判断实现这种能力的前提条件来解决。在更具体的工作过程中,有关确定性与不确定性之间的这对麻烦的矛盾又会出现。

第三,企业对于计划实施的确定性要求和“黑天鹅”“灰犀牛”现象层出不穷的时代的复杂性之间的落差。这要求企业决策者和广大员工能够共同建立起一个具备充足韧性的企业文化、组织架构、业务流程、人员素质以及产品与服务系统。这种韧性系统要求决策者具备针对事物本质的深刻洞察,在这个技术与人文的综合素质决定企业与个人能力的时代,这种洞察不仅来源于固定的知识本身,也来源于系统的发展观;对于发展的理解,离不开对于历史规律,尤其是人工智能历史规律的洞察。

我的日常工作主要是与各行各业的合作伙伴进行智能技术应用落地的实践,在这个过程中,既有客户需求终于被技术实现的喜悦,也有明明是好想法却始终无法落地的遗憾。我相信所有从事智能技术落地的工程技术人员,都有同样的体会。也可以这么理解,上述理论与实践的矛盾是当今智能技术领域的普遍现象。那么这个问题有没有解呢?

泛泛而言,答案就是我们必须要不断学习。在这个巨变的时代,我们每一个人,尤其是企业的决策者和业务人员需要努力学习并理解机器智能实现与应用的基本原理,同时利用自己对相关领域商业逻辑的深刻洞察,与技术人员配合,通过合法、高效、全面地使用智能机器实现企业与个人能力的飞跃。这种泛泛而谈的学习的确覆盖面太广了,经常会让人们不知从何下手。但确实有一些快速入手的途径,在我看来,现在在你手中摊开的这本书,可能就是其中的一条途径。

敢言的杨立昆

对大部分读者而言,这本书的作者杨立昆最出名的可能就是与杰弗里·辛顿和约书亚·本吉奥一起获得的由美国计算机协会(ACM)颁发的2018年度图灵奖。当然业内人士大都知道他与卷积神经网络的不解之缘,还有那个1993年拍摄的用LeNet 1卷积神经网络(一个以他的名字命名、拥有4600多个单元、接近10万个连接的卷积神经网络)对于手写数字自动识别的演示视频,这套系统在1995年就开始正式商业落地。要知道那可是将近30年前的事情啊!也就是说,现在广为流行的基于深度卷积神经网络的计算机图像识别系统,在近30年前就已经开始商用了。

其实杨立昆在业界还以“敢言”出名。当初在2017年NeurIPS大会上,获颁“长期成就奖”的机器学习专家阿里·拉希米(Ali Rahimi)在他的获奖演讲中,对人工智能的现状进行了批判。拉希米提醒当时的听众,“我们对人工智能的发展过于自大了”。他先用吴恩达对人工智能的著名判断“人工智能是新时代的电力”举例,之后话锋一转,在屏幕上打出一个中世纪炼金士的图像,转而说:“目前的人工智能更像是炼金术,只不过是一个还能用的炼金术。”此言一出,激起了本书作者杨立昆的强烈反击,因此在网络上形成了一场关于人工智能到底是不是炼金术的大讨论,这场论战在当时可谓风靡一时。

客观而言,当时论战双方都是基于各自角度和立场的合理论证,并不能简单地判断谁对谁错;但是这种公开的讨论,对大众而言就是一次难得的学习机会。并不是每个人都能够亲身经历机器学习行业几十年的发展历程,也不是所有人都有相应的知识与精力认真思考和研究这些针锋相对的观点和意见。杨立昆的这种敢想、敢做、敢说的风格,的确能够帮助广大民众从他的言论与论著中学到除了技术以外的一些哲学思想内容,而这些思想对需要利用技术解决业务问题的企业决策者和业务人员而言,就变得大有益处了。

坦诚直率的分享

作为图灵奖的获得者,同时是机器学习领域,尤其是以卷积神经网络为代表的深度机器学习领域的领军人物,杨立昆在写作本书时,有意识地不把它写成一本纯粹的技术书,更多的是把他在机器学习领域几十年所走过的道路与读者分享。整本书读下来,尽管也有许多有关机器学习算法设计与实现原理的分析与讨论,但更多的是他在这个行业摸爬滚打几十年的心得体会,值得我们深入阅读与思考。

正如前面所讲,现在妨碍智能机器能力落地的主要障碍,很多情况下不是技术本身,而是对技术能力的期望值和技术有限性之间的矛盾,以及应对复杂现象的能力。这正是杨立昆在他的书中始终强调的观点。

本书的写作风格,与杨立昆自诩为工程师的为人一样,非常坦诚、直率、目的明确、不事雕琢。喜欢那些用词优美、语意流畅、文学性强的文章的读者,可能需要习惯一下他这种工程师式的写作方式。同时也由于过去几十年人工智能的发展道路非常坎坷,杨立昆又坚持选择了一条并不为大多数同行看好的深度机器学习之路,让他和少数同路人没有少受委屈,这也让他偶尔会怀疑自己选择的道路是否能走向成功的未来。我相信正是他的这种真情实意,使得这本书的内容对广大读者来说有非常真实的借鉴意义;同时我也相信,正是因为他经历了人工智能这几十年真实不虚的起起伏伏,他才有那么坚定的信心、意愿与各种对于人工智能发展的观念与思潮进行坦诚的辩论与交流。

本书中最令我动容的是他在第二章“深度学习的阴谋”那一节里有关信心与动摇的描写。那是1987年12月6日,也就是杰弗里·辛顿生日当天发生的事情。辛顿本是个很有幽默感的人,但那一天他苦涩地坦陈:“今天是我40岁生日,我的职业生涯也到头了,什么也做不成了。”的确,那时候才是1987年,辛顿已经40岁了,离他和他的团队在2012年利用深度卷积神经网络将计算机图像识别的错误率从25 %一下子降到16 %还有25年,离AlphaGo在2017年中国乌镇围棋峰会上以3∶0击败围棋世界排名第一的柯洁还有30年,离他与本吉奥和杨立昆在2019年共同获得2018年度图灵奖还有32年。正因为如此,作为辛顿的朋友和图灵奖的共同获得者,杨立昆可以自豪地讲:“我们在20年后又有了新的想法,但我们碰见的大多数人都不如辛顿这样,他们都很傲慢。”我相信他们几位先行者的经历,也能够给中国莫名其妙流行的程序员“35岁现象”起到正面的借鉴意义。

丰富的阅读体验

类似的警句在本书中比比皆是,在我拿到的中信出版社给我的试读本中,我已经做了非常多的标注,让我跟大家分享一些我收集的例子,与大家共勉。

本书一开篇就写道,“人工智能正在逐步占领经济、通信、健康和自动驾驶汽车等领域。很多观察家不再将其视为一次技术演变,而视其为一场革命”。杨立昆所坚信的“深度学习就是人工智能的未来”。第九章里他把机器学习的各种方法比作黑森林蛋糕。作者还是一个不希望把技术神化的具有踏踏实实工程师个性的科学家,当他解释机器学习算法的时候,他希望读者理解的是它背后的思维本质,而不是多么高不可攀的术语和公式。对于算法,他说:“算法是指令序列,这就是它的全部,没有任何神奇、难以理解的地方。”他对机器自动学习原理的解释就是与“物理学的基础”一样,“从观察到的现象中总结出定律,并用定律预测现象”。

另一个有趣的例子是他对SVM算法的观点。尽管SVM是他的朋友和同事一起发明的,但他在书中明确写道:“我对我的朋友和同事深怀敬意,但必须承认我本人对这个方法并不是特别感兴趣,因为它并没有解决特征提取器自动训练的关键问题。不过,SVM方法吸引了很多人的注意。”

我所接触到的绝大多数科学家,都与杨立昆的风格类似,他们都有一个共同的素质,就是始终带有批判性思维。当这些优秀的科学家或工程师对一种技术或者方法进行研究与推广的时候,永远都要先阐述它能够起作用的前提约束条件,不会一味推崇某种技术的好处而不阐明因为某种优势所必然带来的某种劣势。这些科学家的技术与工程理念可以综合地解释为,“任何一种强大的技术,有其正面就必定有其负面,不理解它的负面,就不能更好地发挥它的正面;不能够关闭某种神奇的工具,就不能轻易地把它打开”。这种思想方式始终贯穿本书。

在与大量客户的合作过程中,我也发现企业的决策者容易被技术发展的单方面描述误导,尤其在这个手机朋友圈知识远大于传统知识渠道的时代。人们得到了知识获取的便利性,但同时又面临着判断知识真假的挑战。虽然以机器学习为代表的智能技术表现出了非常强大的潜力,也让我们看到了这种强大的智能技术在一些领域中的应用所带来的翻天覆地的变化,但是这种应用领域的范围还极为狭窄,还有大量的未知领域需要人们以探索的精神来找到落地的方法。但现实是人们很容易在没有理解和认知某种先进技术的负面因素的前提下,就做出了一个不具备批判性观点的决策。这种决策方法极易将本来可以在一定范围内为企业发展做出贡献的技术,仅仅由于没有考虑到在使用过程中应该避免的负面效果而前功尽弃。在现实中,这种决策方法所造成的后果可能更严重,因为这种前功尽弃的现象,又会使企业的决策者完全丧失对于使用先进技术提高自身竞争实力的信心,以至干脆放弃对先进技术的追求与坚持。这种结果几乎可以称为“双倍的得不偿失”。

机器学习的能力很强大,但是要想用好这种能力并不容易。人类社会发展到今天,进入智能化时代,是一个大概率事件。理解、掌握并用好机器学习的能力,已经成为每个组织与个人生存与发展的必选项,而不再是一个可选项。同时,由于这种技术的复杂性,它要求人们不仅能够学习固定的知识,还需要具备应对变化的能力,而这种应对变化的能力其实也是机器学习的基础能力范式。机器学习已经发展到了能够帮助人类扩展自身认知空间的阶段,也就是说,人类不仅能够利用机器学习的能力,也可以向机器学习新的学习方法,这种方法的核心就是在变化和不确定的情况下随时适应新情况的方法。

到底是不是炼金术?

刚才在前面跟大家介绍了杨立昆与拉希米关于机器学习是否是炼金术的争论,在那场争论中,杨立昆坚决地站在机器学习不是炼金术的一方,但科学探索的本质就是不断接近真相但永远不会到达真相,在这个寻求真相的过程中会随时根据周围环境的变化和新的现象而做出修正。读书也是一样,“尽信书,不如不读书”。本书作者以他自己“科学之路”的经历告诉我们同样的道理,那么就让我们以他自己在前言部分写的一段话作为收尾吧!

深度学习的探索之旅并不容易,我们不得不与各个方面的怀疑论者做斗争……深度神经网络,即我们提出的深度学习,就是突破局限性的方法。深度神经网络十分有效,但是运作也非常复杂,并且难以进行数学分析,但我们还是如同炼金术士般不懈追求着。

杨立昆的科学之路

马毅 加州大学伯克利分校电子工程与计算机系教授

非常荣幸受邀给杨立昆教授的新书中文版作序。我和杨立昆相识于计算机视觉领域的大会,至今应该有十多年了。在科研方向上,我们一直都非常关心一个共同的基本问题:如何正确有效地表示图像数据的内在结构。杨立昆非常重视从实际数据和任务出发,例如针对图像分类的卷积网络和自动编码方面的开创性工作;而我比较偏重描述图像数据内在的低维结构的基本数学模型,例如稀疏结构和多子空间模型。虽然我们研究的侧重点不太一样,但因为大方向一致,对对方的工作一直都非常了解。在很长一段时间里,由于我们的工作在实用性方面还没有充分体现出来,而在计算机视觉领域又比较小众甚至另类,因此也有些惺惺相惜。科学探索,绝对不能因为一时不被大多数人认可就放弃正确的方向。杨立昆在新书里生动地描述了他们在深度学习方面艰辛探索与努力坚持的心路历程。相信这些亲身体验,对年轻的科研人员应该有非常好的教育意义。

今天,我们可以看到这些当初不被主流认可与看好的工作产生了多么深远的影响:深度卷积网络以及稀疏结构基本上是所有实用深度模型,甚至是任何高维数据模型必不可少的基本元素。2016年暑假,深度学习、压缩感知、优化算法以及调和分析领域的一群前沿学者,聚集到墨西哥美丽的瓦哈卡(Oaxaca)的数学研究所,一起交流和探讨这些领域及其相关领域的进一步发展。杨立昆和我应该是计算机视觉领域仅有的两位参会者。当时我还带了家人。杨和我们一家还有不少学生一起去参观了玛雅遗址。也是在这次研讨会上,通过与杨交流,我第一次开始真正意识到深度模型与低维结构的内在联系。当时我还在上海科技大学执教,所以顺便邀请杨在2017年上海科技大学信息学院的学术年会上做一个关于深度学习的主题演讲。我记得当时那场演讲现场观众有800多人,而通过在线直播参加的有四五千人。这可能就是他在书的中文版自序中提到的在中国受到明星一样待遇的一个例证。那次年会后,为尽地主之谊,我专门陪杨和他的夫人一起去了上海的朱家角游玩。一路上,杨对中国文化非常感兴趣,买了不少纪念品,直到他夫人阻拦为止。

2018年我回到美国,因为我们俩都意识到深度网络与低维结构的密切联系,所以杨和我进行了多次交流。2019年,我专程去纽约大学拜访了他。一方面是当面祝贺他获得了图灵奖,另一方面是与他深入探讨深度网络的理论研究方向。当时深度网络虽然在实践上取得了巨大成功,但其内在机制和理论基础却不清楚。我记得我们在他纽约大学的办公室讨论了整整一个下午,出来时天已经黑了。我们一下午的讨论就围绕一个中心主题:深度网络究竟在优化什么。杨立昆认为可以从类似于物理学中的能量方面找灵感,而我感觉应该从数据的低维结构表示入手。虽然具体想法有异,但目的和方向非常一致。我也是从这次讨论中清楚地意识到,任何成功的理论框架,不仅要弄清楚深度学习的目的,而且从这个目的出发必须能很自然地解释深度网络的主要结构。可以这么讲,这次讨论是我近两年从数据压缩的角度,用第一性原理阐释深度网络的真正起点。有趣的是,这项工作居然真的把深度卷积网络与低维子空间结构完全有机地结合在一个统一的理论框架下。

很多时候,一些看似很难的问题可能并不像想象的那么艰深,而真正难的是在不知道方向和答案的时候有没有勇气全身心地投入。杨立昆以他非凡的直觉和洞察力,为我们从基础理论层面研究深度网络指引了正确的方向,而且从很大程度上,让我们避免了做理论时最容易犯的错误:闭门造车。我讲述与杨立昆交流合作的故事,是希望年轻学者充分认识到理论与实践联系的重要性,以及在科研中不断拓宽视野、兼容并蓄、与多个交叉领域的同事交流合作的重要性!

杨在他这本新书里以生动翔实的事实传授了很多类似的道理。这本书不仅深入浅出地介绍了人工智能、深度学习的发展历程与核心原理,更重要的是作者通过亲身经历和体验,介绍了如何探索思考科研问题的方法。我以前一直敬仰杨立昆是一个了不起的学者,读了这本书才发现他的知识面如此之广,文笔如此之生动。因此,这是一本不可多得的好书,细心的读者一定会受益匪浅。

让历史告诉未来

黄铁军 智源研究院院长,北京大学教授

杨立昆是当今世界顶尖的人工智能专家,为他的新书作序,颇具挑战性。好在众多专家已在人工智能领域探索了近70年,本序希望通过反思已走过路径的合理性及局限性,探索人工智能的未来发展方向,从而对本书略做补充。

先谈一下对智能的看法。智能是系统通过获取和加工信息而获得的能力。智能系统的重要特征是能够从无序到有序(熵减)、从简单到复杂演化(进化)的。生命系统是智能系统,也是物理系统;既具有熵减的智能特征,也遵守熵增在内的物理规律。人工智能是智能系统,也是通过获取和加工信息而获得智能,只是智能载体从有机体扩展到一般性的机器。

就像人可以分为精神和肉体两个层次(当然这两个层次从根本上密不可分),机器智能也可以分为载体(具有特定结构的机器)和智能(作为一种现象的功能)两个层次,两个层次同样重要。因此,我偏好用机器智能这个概念替代人工智能。

与机器智能相比,人工智能这个概念的重心在智能。“人工”二字高高在上的特权感主导了人工智能研究的前半叶,集中体现为符号主义。符号主义主张(由人)将智能形式化为符号、知识、规则和算法,认为符号是智能的基本元素,智能是符号的表征和运算过程。符号主义的思想起源是数理逻辑、心理学和认知科学,并随着计算机的发明而步入实践。符号主义有过辉煌,但不能从根本上解决智能问题,一个重要原因是“纸上得来终觉浅”:人类抽象出的符号,源头是身体对物理世界的感知,人类能够通过符号进行交流,是因为人类拥有类似的身体。计算机只处理符号,就不可能有类人感知和类人智能,人类可意会而不能言传的“潜智能”,不必或不能形式化为符号,更是计算机不能触及的。要实现类人乃至超人智能,就不能仅仅依靠计算机。

与符号主义自顶向下的路线针锋相对的是连接主义。连接主义采取自底向上的路线,强调智能活动是由大量简单单元通过复杂连接后并行运行的结果,基本思想是:既然生物智能是由神经网络产生的,那就通过人工方式构造神经网络,再训练人工神经网络产生智能。人工神经网络研究在现代计算机发明之前就开始了,1943年,沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)提出的M-P神经元模型沿用至今。连接主义的困难在于,他们并不知道什么样的网络能够产生预期智能,因此大量探索归于失败。20世纪80年代神经网络曾经兴盛一时,掀起本轮人工智能浪潮的深度神经网络只是少见的成功个案,不过这也是技术探索的常态。

人工智能的第三条路线是行为主义,又称进化主义,思想来源是进化论和控制论。生物智能是自然进化的产物,生物通过与环境以及其他生物之间的相互作用发展出越来越强的智能,人工智能也可以沿这个途径发展。这个学派在20世纪80年代末90年代初兴起,近年来颇受瞩目的波士顿动力公司的机器狗和机器人就是这个学派的代表作。行为主义的一个分支方向是具身智能,强调身体对智能形成和发展的重要性。行为主义遇到的困难和连接主义类似,那就是什么样的智能主体才是“可塑之才”。

机器学习从20世纪80年代中期开始引领人工智能发展潮流,本书给出了很通俗的定义:学习就是逐步减少系统误差的过程,机器学习就是机器进行尝试、犯错以及自我调整等操作。机器学习对人工智能最重要的贡献是把研究重心从人工赋予机器智能转移到机器自行习得智能。近年来,最成功的机器学习方法是深度学习和强化学习。

深度学习是连接主义和机器学习相结合的产物,最大的贡献是找到了一种在多层神经网络上进行机器学习的方法,本书作者杨立昆和约书亚·本吉奥、杰弗里·辛顿因此获得2018年度图灵奖。深度学习首先回答了什么样的神经网络可以训练出智能,包括多层神经网络和卷积神经网络,也回答了训练(学习)方法问题,包括受限玻尔兹曼机模型、反向传播算法、自编码模型等。深度学习对连接主义的重大意义是给出了一条训练智能的可行途径,对机器学习的重大意义则是给出了一个凝聚学习成效的可塑载体。

强化学习的思想和行为主义一脉相承,可追溯到1911年行为心理学的效用法则:给定情境下,得到奖励的行为会被强化,而受到惩罚的行为会被弱化,这就是强化学习的核心机制——试错。1989年,沃特金斯提出Q学习(Q-learning),证明了强化学习的收敛性。2013年,谷歌子公司DeepMind将Q学习和深度神经网络相结合,取得AlphaGo、AlphaZero(阿尔法元)和AlphaStar等重大突破。最近,DeepMind更是强调,只需要强化学习,就能实现通用人工智能。

与DeepMind极力推崇强化学习不同,杨立昆认为强化学习不过是锦上添花,传统监督学习标注成本高,泛化能力有限,也只是点缀,自监督学习才是机器学习的未来。自监督学习是通过观察发现世界内在结构的过程,是人类(以及动物)最主要的学习形式,是“智力的本质”,这就是本书第九章的核心观点。最近,杨立昆和另外两位图灵奖获得者发表的论文“Deep Learning for AI”(《面向人工智能的深度学习》)中,也重点谈了这个观点。

有了三位图灵奖获得者的大力倡导,相信自监督学习将会掀起一波新的研究浪潮,但我不认为这就是“智力的本质”。根本原因在于,这只是从机器学习层次看问题,或者更一般地说,是从功能层次看问题。我认为,学习方法(功能)固然重要,从事学习的机器(结构)同样重要,甚至更重要,因为结构决定功能。正如我开始时强调过的,永远不要忘记作为智能载体的机器。

杨立昆在第九章开篇提到了法国航空先驱克莱芒·阿代尔(Clément Ader),他比莱特兄弟早13年造出了能飞起来的载人机器。杨立昆从这位先驱身上看到的主要是教训:“我们尝试复制生物学机制的前提是理解自然机制的本质,因为在不了解生物学原理的情况下进行复制必然导致惨败。”他的立场也很清楚:“我认为,我们必须探究智能和学习的基础原理,不管这些原理是以生物学的形式还是以电子的形式存在。正如空气动力学解释了飞机、鸟类、蝙蝠和昆虫的飞行原理,热力学解释了热机和生化过程中的能量转换一样,智能理论也必须考虑到各种形式的智能。”

我的看法和他不同,我认为克莱芒·阿代尔(和莱特兄弟)不仅没有“惨败”,而且取得了伟大的成功。原因很简单:克莱芒·阿代尔1890年和莱特兄弟1903年分别发明飞机,而空气动力学是1939—1946年才建立起来的。两次世界大战中发挥重大作用的飞机,主要贡献来自克莱芒·阿代尔和莱特兄弟的工程实践,而不是空气动力学理论的贡献,因为空气动力学还没出现。另一个基本事实是,至今空气动力学也没能全面解释飞机飞行的所有秘密,更没有全面解释各种动物的飞行原理。空气动力学很伟大,但它是“事后诸葛亮”,对于优化后来的飞机设计意义重大,但它不是指导飞机发明的理论导师。

智能比飞行要复杂得多,深度学习成功实现了智能,但是能够解释这种成功的理论还没出现,我们并不能因此否定深度学习的伟大意义。杨立昆和另外两位图灵奖获得者的伟大,和克莱芒·阿代尔及莱特兄弟之伟大的性质相同。我们当然要追求智能理论,但是不能迷恋智能理论,更不能把智能理论当作人工智能发展的前提。如果这里的智能理论还试图涵盖包括人类智能在内的“各种形式的智能”,则这种理论很可能超出了人类智能可理解的范围。

所以,尽管自监督学习是值得探索的一个重要方向,它也只是探索“智力的本质”漫漫长途中的一个阶段。人类和很多动物具有自监督学习能力,并不是自监督学习多神奇,而是因为他(它)们拥有一颗可以自监督学习的大脑,这才是智力的本质所在。机器要进行自监督学习,也要有自己的大脑,至少要有深度神经网络那样的可塑载体,否则自监督学习无从发生。相比之下,强化学习的要求简单得多,一个对温度敏感的有机大分子就能进行强化学习,这正是生命和智能出现的原因。所以,强化学习才是更基本的学习方法。

当然,从零开始强化学习,确实简单粗暴、浪费巨大,这也是强化学习思想提出百年并没取得太大进展的重要原因。强化学习近十年来突然加速,是因为有了深度神经网络作为训练的结构基础,因而在围棋、《星际争霸》等游戏中超越人类。不过,人类输得并不心甘情愿,抱怨的主要理由是机器消耗的能源远高于人类大脑。我认为这种抱怨是片面的,人类棋手大脑的功耗确实只有数十瓦,但训练一个人类棋手要花费十多年时间。更重要的是,人类棋手学围棋时是带着大脑这个先天基础的,这颗大脑是亿万年进化来的,消耗了巨大的太阳能,这都应该记到能耗的总账中。这样比较,到底是机器棋手还是人类棋手能耗更大呢?

从节省能源角度看,机器智能确实不应该从头再进化一次,而是应该以进化训练好的生物神经网络为基础,这就是纯粹的连接主义:构造一个逼近生物神经网络的人工神经网络。1950年,图灵的开辟性论文《计算机与智能》中就表达了这个观点:“真正的智能机器必须具有学习能力,制造这种机器的方法是:先制造一个模拟童年大脑的机器,再教育训练它。”这也是类脑智能或神经形态计算的基本出发点。相关科研实践开始于20世纪80年代,基本理念就是构造逼近生物神经网络的神经形态光电系统,再通过训练与交互,实现更强的人工智能乃至强人工智能。

除了改进训练对象的先天结构,训练不可或缺的另一个要素是环境。环境才是智能的真正来源,不同环境孕育不同智能。人们往往把今天人工智能系统的成功归结为三个要素:大数据+大算力+强算法,其中数据是根本,另外两个要素主要影响效率。训练更强智能,需要更大数据,这是智能发展的基本规律。有人提出“小数据”方法和小样本学习,标榜要颠覆大数据方法,给出的典型理由是人类和动物能够举一反三,不需要大数据。这种观点貌似有道理,其实言过其实,因为他们忘记或者故意隐瞒了实现举一反三的主体是大脑,而大脑本身是“进化大数据”训练的结果。所谓小数据方法,是以大数据“预训练”为前提的。仅靠小数据不可能训练出复杂智能,道理很简单——小数据没有蕴含足够的可能性和复杂性,所谓的强大智能又从何而来呢?

但即便是大数据,也不能完整有效地表达环境,数字孪生能更全面地刻画物理环境,更好地保留环境自有的时空关系,因此也能够哺育出更强的人工智能。物理世界的模型化本来就是科学最核心的任务,以前从中发现规律的是人类,未来这个发现主体将扩展到机器。

行文至此,我们已经从人工智能发展史中小心翼翼地挑出三根靠得住的基本支柱:一是神经网络,二是强化学习,三是环境模型。在这三根支柱中,杨立昆最突出的贡献是对神经网络的贡献,特别是卷积神经网络。至于想到用卷积神经网络,是因为借鉴了生物神经感知系统,这就是卷积神经网络在图像识别和语音识别等领域大获成功的主要原因——深度神经网络已经借鉴了生物神经网络的部分结构。

总而言之,人工智能经典学派有三个:符号主义、连接主义和行为主义。符号描述和逻辑推理不是智能的基础,而是一种表现,读写都不会的文盲就拥有的“低级”智能才更基础。因此,连接主义和行为主义虽然困难重重,但有着更强的生命力,从中发展出的深度学习和强化学习两套方法,成为当今支撑人工智能的两大主要方法。

展望未来,人工智能的发展途径有三条。一是继续推进“大数据+大算力+强算法”的信息技术方法,收集尽可能多的数据,采用深度学习、注意力模型等算法,将大数据中蕴藏的规律转换为人工神经网络的参数,这实际上是凝练了大数据精华的“隐式知识库”,可以为各类文本、图像等信息处理应用提供共性智能模型。二是推进“结构仿脑、功能类脑、性能超脑”的类脑途径,把大自然亿万年进化训练出的生物神经网络作为新一代人工神经网络的蓝本,构造逼近生物神经网络的神经形态芯片和系统,站在人类智能肩膀上发展机器智能。第三条技术路线的核心是建立自然环境的物理模型,通过强化学习训练自主智能模型。比如,构造地球物理模型,训练出的人工智能系统能够适应地球环境,与人类共处共融;构造高精度物理模型(例如基于量子力学模型构造出粒子、原子、分子和材料模型),可以训练出能够从事物理学和材料学研究的人工智能;构造出宇宙及其他星球的物理模型,可以训练出的人工智能则有望走出地球,适应宇宙中更复杂的环境。

人类智能是地球环境培育出的最美丽的花朵,我们在为自己骄傲的同时,也要警惕人类中心主义。地球不是宇宙的中心,人类智能也没有类似的独特地位,把人类智能视为人工智能的造物主,曾经禁锢了人工智能的发展。沉迷于寻求通用智能理论,将是阻碍人工智能发展的最大障碍。破除人类中心主义的傲慢和对通用智能理论的迷思,构建更好的人工神经网络(包括逼近生物神经网络),坚持和发展强化学习基本思想,不断提高环境模型的精度和广度,人工智能将稳步前行,前景无限。

探求未知的科学精神

郭毅可 欧洲科学院院士,英国皇家工程院院士,香港浸会大学副校长,英国帝国理工学院教授,高山书院顾问委员会委员

拿到杨立昆先生的新书,一看书名《科学之路:人、机器与未来》,我就被深深吸引。

在不久的未来,机器会思考吗?机器如何思考?机器思考和人类的思考有什么不同?我带着这些疑问拜读了这位人工智能大师的新作。

我和杨立昆先生并不认识,但关于他的故事却早有耳闻。我非常钦佩他在人工智能处于低潮时的远见卓识。他看到了在大数据、大算力的支持下大规模神经网络的巨大潜力。他在卷积神经网络上的开创性工作,开启了深度学习的新时代。

在过去的十多年里,他是深度学习技术和理论的积极倡导者和实践者,为这个技术的发展和应用做出了杰出的贡献。在这本书中,他以自己特有的热情对人工智能这些年的突飞猛进和未来的光明前景做了深入浅出的阐述,引人入胜!

杨立昆先生对机器思考的观点和看法有他的独到之处:一方面他强调机器有独特的思考能力,另一方面他也承认今天机器的思考缺乏常识。对机器思考的机制和机器思考与人类之间互通的讨论的研究是今天人工智能的热点,也是最具挑战性和哲学意义的命题。所以,这本书不仅有着向大众传播科学技术的价值,而且更展示了杨立昆探求未知的科学精神。

我希望大家像我一样喜欢这本书,并从中获益。

今天,人工智能的各类图书充斥书架,但真正由人工智能革命的领导者亲自撰写的书却很少。人工智能大家杨立昆在这本书里,把人工智能的来龙去脉和他本人的核心观点,和我们娓娓道来。我们就像坐在冬天的火炉边,端着一杯咖啡,听他讲述人工智能的故事,这本身就是一种享受。我们在书里不仅能得知一些有趣的人工智能发展的小故事,也可以领会到几代人坚持不懈的努力,从而更加赞叹这种锲而不舍的精神。同时,我们对人工智能未来社会的理解,也会更加深刻。 我本人长期从事人工智能的研发实践工作,强力推荐这本书给各位读者,希望大家尤其是青年人,从中获得深刻的启发。

杨强 香港科技大学讲座教授, 国际人工智能联合会议(IJCAI)理事长(2017—2019), 香港人工智能与机器人学会理事长, 国际人工智能学会AAAI Fellow

杨立昆博士是一位伟大的人工智能科学家,强人工智能实现道路上的布道者。

作为现代人工智能的一种主流范式,深度学习技术因对人脑有更好的模仿效果,已经蔓延到整个商业科技世界,并潜移默化地改变了人们的生活习惯。在打造一台“可学习”的机器这个奇妙想法的实现过程中,我们能清晰地看到一位巨人踩下的脚印——杨立昆提出的卷积神经网络和反向传播优化方法论使人工智能领域得到了前所未有的复兴。这本书由浅至深详尽地介绍了人工智能革命的发展,以及杨立昆与人工智能结缘的始末,看完让人心潮澎湃,大受启发!

彭志辉(稚晖君) 华为天才少年,人工智能工程师,科技博主

杨立昆先生的这本《科学之路》由100多篇言简意深的短文组成,每篇只有一两页,围绕一个引人入胜的观点,读起来完全没有压力。作为人工智能中兴的亲历者和关键人,相比比尔·盖茨、霍金,他的观点更具实践者方有的科学基础,而与马斯克、扎克伯格相比,他的表达也更能“祛魅”、更纯粹、更没有商业意图。作为大师,他不避讳人工智能还面临很多的未知,这些未知影响到了自动驾驶等重要应用在近期的普及(杨先生用大量的篇幅讲述了他对自动驾驶的洞察),也为人工智能未来30年的巨大创新“留白”。掩卷沉思,每一个有志于用人工智能改变世界的读者都会油然而生一种责任感,为往圣继绝学,为万世开太平,杨先生的科学之路,其道不孤。

吴甘沙 驭势科技董事长、CEO

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。