量子人工智能:量子计算和人工智能

人工智能
后台-插件-广告管理-内容页头部广告(手机)

唐豪,金贤敏

 

量子人工智能,是由量子计算和人工智能交叉发展起来的新兴学科和技术。过去几十年来,量子计算和人工智能技术都各自经历了起起落落、螺旋上升的自身发展历程,正逐渐走向落地,有望给人类的技术革新、生产和生活带来颠覆性改变。我们正迎来二者深度交叉的最好时机,一个量子人工智能研究的最好时代!

要说现在最受关注的科技前沿方向,量子计算和人工智能应该可以算是其中之二了。阿尔法狗(Alpha Go)居然战胜了顶级围棋选手,谷歌开发出量子计算机号称可以算经典计算机一万年才能算出的东西……虽说这些新闻里有时候有些噱头成分,比如谷歌很快就被友商IBM指出,经典计算机用优化算法的话只要两天半,根本不需要一万年,而且谷歌计算20层复杂层数时的保真度只有0.3%,还有巨大的进步空间。不过人们仍然能感觉到新兴技术已经向我们走来,并且将给生活带来令人期待的改变。

   

谷歌与IBM关于“量子霸权”的辩论

就在量子、人工智能(AI)这些名词开始被大众所熟悉的同时,“量子人工智能”这个新的方向也开始快速发展起来。图灵奖得主姚期智院士曾指出,“量子计算和人工智能两个领域的结合,将会是未来的重大时刻。”人工智能机器学习技术可以用于解决量子信息难题,可以帮助量子物理学家去处理很多复杂的量子物理数据分析,比如机器学习识别相变、神经网络实现量子态的分类、凸优化用于海水量子信道重建等。另一方面,目前同样广为关注的方向,就是如何运用量子计算技术去推动人工智能的发展。量子计算科学家研究了很多可以基于量子计算机的算法,往往可以把原本计算复杂度为NP或更高的问题转化为多项式复杂度,实现平方甚至指数级的加速,目前不少经典的机器学习问题,如主元素分析(PCA)、支持向量机(SVM),生成对抗网络(GAN)都有了量子算法的理论加速版本,并且有的还在专用或通用的量子计算机中进行了原理性实验演示。

 

人工神经网络用于量子态分类示意图

量子计算和人工智能的交叉学科发展,其实并不是随性偶遇,或是强行的撮合,还颇有一点注定有缘的意味。在两者相遇之前,都各自经历了起起落落、螺旋上升的自身发展历程。

人工智能:三起二落的七十年

人工智能的渊源绕不开阿兰·图灵在1950年的测试:假定一台机器能在5分钟内接受人们一系列询问,让30%以上的人都不能分辨是这是人还是机器在回答,那么机器被认为具有了人的智能。1956年,数学家约翰·麦卡锡正式提出“人工智能”这个概念。在1950-1960年代,机器学习、神经网络、遗传算法等现在常用到的基本模型就提出来了,而且伴随着计算机从最初的电子管到晶体管的进展,诸如Student求解应用程序、Elisa聊天机器人等应用陆续出现。但是到了1970年代,人工智能陷入第一次危机,面临着计算机性能不足、数据量严重缺失等技术瓶颈。

1980年代,一类“专家系统”程序为人工智能揭开第二次发展高潮,“专家系统”程序依据专业知识推演出的if-then逻辑规则在特定领域回答问题,但几年下来人们发展应用领域很窄,个人台式机等新生力量更值得投入,加上1987年美国金融危机等外因,对人工智能的投入研究又转入寒冬。在这一阶段,虽然大规模集成电路计算机已开始发展,但前述技术瓶颈仍未突破。同时值得一提的是,现在很多人可能会把人工智能和机器学习画上等号,实际上“专家系统”和机器学习都是通过不同方式模仿人类智能决策的方式,目前是基于大数据动态决策的机器学习途径成为主导。正是在1980年代,在“专家系统”研究热潮之余,反向传播(BP)模型实现了神经网络训练的突破,使得后来基于神经网络的机器学习研究重获生机。

人工智能的第三次高潮则伴随着摩尔定律下的计算机性能频频翻倍的形势而来,自90年代中期以来,IBM机器人“深蓝”战胜国际象棋冠军(1997年),深度学习算法及“云计算”概念被提出(2006年),谷歌无人驾驶汽车创16万公里无事故纪录(2010年),苹果发布语音个人助手Siri(2011年),华为发布AI定制移动端芯片(2017年)……人工智能在自然语言、机器视觉、自动驾驶等众多细分领域都得到快速发展。

 

人工智能发展简史示意图

量子计算:大器晚成 风华正茂

相比人工智能70年历程,量子计算相对更加年轻。虽说量子力学是整个20世纪的主角,直接促成了半导体晶体管、激光器等信息技术的发展,但量子计算的概念是直到1980年代才提出的。这时候经典计算机的理论发展已经相对成熟,诺贝尔物理奖得主费曼指出,自然中很多量子力学现象,用量子计算机会比经典计算机更擅长模拟这些量子力学现象。此后多年稀稀落落有一些关于量子计算抽象模型、量子计算可能用处的探讨。

1994年,贝尔实验室的Shor发表了分解大数质因数的量子算法,掀起了国际上量子计算研究的第一次小的高潮。不久后,Grover提出现在也成为一类代表性量子算法的量子搜索算法。1995年,舒马赫(Benjamin Schumacher)第一次提出了“量子比特”(qubit)的概念。N个量子比特可以存储2的N次方个状态,可以处于动态演化中,测量时量子比特才从叠加态坍缩。基于量子门构建成量子比特线路的量子算法,都面临着量子退相干带来的考验,量子纠错理论也于1995年提出。此后几年,量子信息的实验研究也取得进展,量子受控非门(CNOT)这一重要的量子逻辑门先后在离子阱、光学等不同物理体系中实现,可操纵的量子比特数也从2开始逐步提升。量子退火算法这种专用量子模拟方法也被提出。

从2000年以来的前10年里,量子计算研究稳步发展,直到2012年以来,开始更高提速。2012年,D-Wave公司推出512位基于量子退火算法的计算机,宣称可以对于特定优化问题比经典计算机快上万倍。此后,IBM、谷歌、微软等各大公司纷纷提出各自的量子计算路线和投入方案,量子比特数目你追我赶,量子计算开始成为广为人知的科技名词。

 

量子计算发展简史示意图

人工智能携手量子计算

写到这里,人工智能和量子计算似乎还只是两条并行的轨道,没有什么交点。2012年,谷歌宣布成立量子人工智能实验室(Quantum Artificial Intelligence Lab) ,普通大众看到两个名字放在一起了,还会有点纳闷。其实,在此之前,大约自从2000年前后以来,已有人在试想量子和AI结合,比如是否可以构建量子神经网络,比如从信息论角度指出量子和经典信息的等价可学习性,好比从根本上认定了两方结合的可行性。但为什么近几年大家才发现二者高调地在一起呢?

 

细细想来,在现在摩尔定律逐渐陷入瓶颈关头,包括光子计算、类脑计算等各种非冯诺伊曼机的计算途径开始大力发展,尤其是量子计算,在理论上已被论证了加速运算的各种优势。回想人工智能的发展历程,每一次的发展高峰都得益于计算机硬件的条件允许,如1960年代的晶体管计算机编程,2000年以来的GPU运算;而同时,此前两次的回落也又都因为计算机硬件瓶颈,毕竟AI程序涉及极高计算复杂度和数据处理量。现在人工智能若想要保持旺盛冲劲,必须克服摩尔定律限制,结合最前沿的计算机计算途径和硬件性能去突破。量子计算的很多算法可以把AI程序涉及的计算复杂度变为多项式级,从根本上提升运算效率,无疑是非常有吸引力的。

 

IBM50量子比特量子计算机原型机

而且,目前从各国推出的量子计算白皮书以及各商业公司的量子计算研究组网站上看,都表示希望量子计算能够应用在优化问题、生物医学、化学材料、金融分析、图像处理等各行业应用领域。对于人工智能呢,说到它的应用场景,罗列出来,不外乎也是优化问题、生物医学、化学材料、图像处理、金融分析等等。量子计算和人工智能都希望能够助力各民生行业,志向其实是一致的,“为了一个共同的目标,走到一起来了。”

量子人工智能技术

量子人工智能这一交叉学科领域已被确立,但真正产生有用的技术要考虑很多细节。1950-1960年代刚开始研究人工智能时,觉得可以在二十年内实现可以像人一样有自主意识和感知的强人工智能,有点用力过猛。直到现在为止,即使AlphaGo能够实现运算复杂度非常高的围棋竞技,仍然属于弱人工智能的范畴,即在特定规则下的程序化运算。人们觉得小孩都懂的情感和行动能力,AI难以做到,而人们觉得非常有智慧的高等代数几何、高超棋艺,其实用AI可以有套路实现。这样想来,其实让人们做人们擅长的事,让AI发挥自己擅长、又能方便人们生活的技能就很好了。因此,量子计算的涉入目前着眼在弱人工智能的各种具体任务中。

 

快速到达量子加速算法的专用量子计算演示

量子计算这边,也有具体分类,主要包括基于量子逻辑门线路的通用量子计算,和直接进行哈密顿量构建及量子演化的专用量子计算。通用量子计算需要解决如何优化量子线路、减少线路长度,以及如何实施量子纠错等问题,专用量子计算是费曼提出量子计算想法时就提出的途径,需要能够灵活构建符合算法需求的多维度演化空间。不管哪种途径,都需要构思怎样把人工智能算法中复杂度较高的部分转化到量子态空间和量子演化问题中,发挥量子算法优势。

 

Quantum Algorithm Zoo 为包含数百种量子算法的量子算法合集,并在不断更新

例如神经网络是人工智能里的一类重要技术方法,但是神经网络在量子体系中的实现却并不容易。神经网络模型里的激活函数,是一个跃迁式的非线性的函数,而直接构建量子演化空间是线性的,这是一个矛盾。因此目前有人提出使用量子逻辑门线路,使用量子旋转门和受控非门来构建神经网络,随着神经元的增多,要求的量子门的数量也大幅增长。另外一种思路是,不去实现神经网络激活函数及完整的神经网络,但是实现如Hopfield神经网络中重要的“联想记忆”功能,这通过专用量子计算容易实现,而且方便带来实际的应用。

从技术层面看,机器学习根据是否有“标注的”训练样本分为无监督型和有监督型机器学习,二者都可以通过量子算法进行改进。如K-Means是一个常用的无监督型机器学习方法,量子算法利用希尔伯特完备线性空间,对量子态的操作即相当于线性空间中的向量操作,利用多个量子态叠加原理的天然并行操作优势提高效率。对于最近邻算法这种有监督型算法,用量子态的概率幅表示经典向量,并通过比较量子态间距实现量子最近邻算法。还有用于数据降维的主成分分析PCA(无监督型),用于数据分类的支持向量机SVM(有监督型)等常见的技术,都有了量子算法版本。

还值得提下深度学习,它是指采用多层神经网络解决更复杂高维的实际问题,是目前机器学习领域里比较难也比较热点的研究方向。2016年,量子深度学习的概念首次被提出,通过量子采样实现受限玻尔兹曼机的梯度估计,加速深度网络训练。目前更多量子深度学习的研究也在快速迭代更新。实际上,目前量子算法对机器学习的跟进是特别及时的,比如生成对抗网络GAN算法近年才推出,很快就有了量子算法QGAN,并进行了实验演示。有若干综述对量子人工智能各种技术方法做了全面介绍,可以方便初学者快速通读入门。

 

量子机器学习算法概览(注:以上分类不是互斥的,如量子自编码Autoencoder算法是基于神经网络的一种用于降维的算法,深度学习算法中无监督和有监督类型均有)

量子人工智能研究现在火吗?

如果有人问,量子人工智能研究现在火吗,有多火呢,最好找相关数据看看。用谷歌学术搜索近几年来出现“Quantum Artificial Intelligence(量子人工智能)”或“Quantum Machine Learning(量子机器学习)”的学术论文数目,正是呈现一个快速上升的趋势。

 

Google Scholar谷歌学术上搜索 “Quantum Artificial Intelligence” OR “Quantum Machine Learning”相关文献数目近年快速上升

从学术会议关注度看,量子人工智能也有了更多存在感。APS March Meeting是美国物理学会每年3月举办的学术会议,是物理界最权威的学术会议之一。2020年将举办的APS March Meeting已公示了所有专题的报告提纲,相比以往,量子信息相关专题的数目有明显提升,而且仅是“Quantum Machine Learning”相关专题就有不少,体现了这个研究领域的逐渐持续深入。

从国家政策层面来看,欧盟的《量子宣言》(Quantum Manifesto)和美国的《量子计算发展白皮书》里都强调了量子信息在人工智能的应用。就在今年2月,特朗普总统拟削减美国科研预算,却大幅增大对人工智能和量子计算等关键领域的预算,可以预想量子人工智能交叉领域研究能获得较好的经费支持。

量子人工智能研究能走远吗?

联想到人工智能曾经有两次陷入低谷,人们不免会想那这一次的人工智能高潮可以走远吗?说到量子人工智能的逐渐升温,那怎样可以让量子人工智能真的持续旺盛起来?

人工智能的发展一直以来是受限于计算机硬件的性能的上限,量子人工智能的发展,长远来看也同样需要量子计算机硬件的性能保证,不能只有量子机器学习算法理论的不断提出,或者在经典计算机的模拟演示。这需要量子物理学家长期的努力。

另外,一个有意思的点是,量子人工智能相关学术研究主要是量子信息科学家主导开展的,他们基于量子物理,进一步学习人工智能机器学习技术,针对某项现有机器学习方法寻找量子优化算法。似乎更少看到人工智能研究出身的科学家去拓展量子机器学习算法的可能性。同时,现在量子计算自身的算法库也是快速发展更新的,或许从量子算法出发直接设计新的机器学习算法也是一种思路。这门交叉学科的相互深入可以更进一步。

还有,量子人工智能在各具体民生领域的应用落地,也需要各行业的研究人员的广泛参与。比如气象预测、医药分析等都有各自特定的计算模型,需要的优化算法也就各不相同。人工智能在各应用领域的探究相对量子计算更加广泛和成熟,因此量子人工智能交叉研究可以借鉴一些相关知识积累。

量子人工智能的发展,还值得更多研究人员献计献策、参与其中。确信无疑的一点是,这是一个比以往任何时候都更适合量子人工智能研究的好时代。量子计算和人工智能两个领域都在发展势头正劲的时候,互相交叉研究已有一定的基础,应用前景又非常广泛并且实在。只要不炒作不吹泡沫,踏踏实实,稳扎稳打,量子人工智能领域值得期待!

作者简介

唐豪,上海交通大学物理与天文学院助理研究员,从事量子信息与集成光学研究,侧重量子模拟及量子算法的实验实现及应用场景拓展。以第一作者在Science Advances、Nature Photonics等期刊发表论文,报道大规模空间二维量子行走、”快速到达“量子加速算法的实验实现、基于量子随机行走的神经网络”联想记忆“功能实验实现等工作。合作发表论文还包括Physical Review Letters等期刊二十余篇。于2014年获得英国谢菲尔德大学光电半导体方向博士学位,并于伦敦商学院进修量化金融分析,于2015年加入上海交通大学从事量子信息科研工作至今。于2019年入选福布斯中国“30岁以下精英榜”(”30 under 30”)。

金贤敏,上海交通大学教授,博导,获中国科学技术大学博士学位,博士论文入选全国百篇优秀博士论文奖。2010年赴牛津大学做博士后,2012年同时获得欧盟授予的玛丽居里学者和牛津大学沃弗森学院学者。2014年11 月开始在上海交大组建光子集成与量子信息实验室。2019年7月破格升为长聘正教授,2019年12月牵头成立上海交大集成量子信息技术研究中心并担任中心主任。先后获上海千人计划、国家青年千人计划、曙光学者、上海青年科技英才奖、上海青年科技启明星、唐立新优秀学者奖等支持。长期致力于光量子芯片的设计和制备,以及量子计算、量子通信和量子存储的芯片化集成化的研究和研发。已发表论文60余篇,包括Science 2篇,Science Advances 3篇,Nature Photonics 6篇,Nature Physics 1篇,Nature Communications 3篇,PRL 13篇,National Science Review 2篇,Advanced Materials 1篇,NPJ Quantum Information 1篇,Optica 2篇,SCI引用2000多次,获得国家发明专利5项。担任Photonics Research(OSA)副主编,IET Quantum Communication(IET)副主编,PhotoniX(Springer Nature)主题编辑和Advanced Intelligent Systems(WILEY)国际编委。

参考文献:

[1] Turing, A. M. Computing Machinery and Intelligence. Mind 236, 433-460 (1950)

[2] Gao, J. et al. Experimental Machine Learning of Quantum States. Phys. Rev. Lett. 120, 240501 (2018)

[3] Huang, X. L. et al. Reconstruction of the Real Quantum Channel via Convex Optimization. Science Bulletin 65, 286-292 (2020)

[4] 尼克 《人工智能简史》,人民邮电出版社(2017)

[5] Nielsen, M. A. and Chuang, I. L., Quantum Computation and Quantum Information. Cambridge University Press (2000)

[6] Biamonte, J. et al. Quantum machine learning. Nature 549, 195-202 (2017)

[7] Tang, H. et al. Experimental two-dimensional quantum walk on a photonic chip, Science Advances 4, eaat3174 (2018)

[8] Tang, H. et al. Experimental quantum fast hitting on hexagonal graphs, Nature Photonics 12, 754 (2018)

[9] Xu, X. Y. et al. A scalable photonic computer solving the subset sum problem, Science Advances 6, eaay5853 (2020)

[10] 黄一鸣, 雷航,李晓瑜,量子机器学习算法综述,《计算机学报》40, 62(2017)

[11] APS March Meeting 2020 Session Index. Retrieved from:http://meetings.aps.org/Meeting/MAR20/SessionIndex2

[12] Trump Proposes a Cut in Research Spending, but a Boost for AI. Retrieved from:https://www.wired.com/story/trump-proposes-cut-research-spending-boost-ai/, since February 11, 2020

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。