微信扫一扫
分享到朋友圈

IBM新研究登上Nature封面:两种量子算法解决分类问题

作者:机器之心 来源:机器之心 公众号
分享到:

03-14

选自nature

作者:Maria Schuld

机器之心编译

机器之心编辑部


机器学习核方法在模式识别中广泛使用,但当特征空间变大时,核函数计算成本高昂,普通计算机难以负担。量子计算机可以在极大的空间中展开计算,如果将数据映射到只存在量子态的空间中会怎么样呢?在 Nature 今天发表的一篇论文中,IBM 的研究者提出将量子态空间作为特征空间来使用。他们提出了两种基于超导处理器的量子算法用于解决分类问题,并进行了大量实验。



机器学习和在技术炒作方面都达到了惊人的程度,除此之外,二者数学基础的某些方面也有着惊人的相似性。今天 Nature 发表了一篇论文《Supervised learning with quantum-enhanced feature spaces》(Havlíček 等人),研究者探索了二者的联系,展示了如今的量子计算机理论上可以怎样的方式从数据中学习。他们给出的方法是:将数据映射到只存在量子态的空间里。


量子计算机很难在台式电脑等经典计算机上进行模拟,这是人们对量子计算机的初步认识之一。换句话说,经典计算机无法用于获取量子计算结果,因为这一过程需要大量数字来描述计算的每个内部步骤。回忆一下我们在学校学的大数除法的多个步骤。如果这是在经典计算机上模拟的量子计算,那么每个中间步骤都需要更多的数字来描述它,这个数字比宇宙中已知的原子数还要大。


用一组数字描述的量子系统状态被称为量子态。如果一个量子态与许多值相关,我们就说其「生活在」一个很大的空间中。对于基于连续变量的量子计算机来说,这些空间甚至可能无限大。


相比较而言,机器学习分析的数据所处的空间要小得多,也就是说,描述数据的值要少得多。例如,一张 100 万像素的图像只需要 300 万个数字来描述所有像素点里的红、绿、蓝值。机器学习的一个典型任务是判断图像里的内容,或生成相似的图像。然而,机器学习中一个叫作「核方法」(kernel method)的成熟理论处理数据的方式与量子理论处理数据的方式类似。


简而言之,核方法通过定义哪些数据点彼此相似、哪些不相似来开展机器学习。从数学上来讲,相似性就是数据空间中的一段距离,即数据点数字表征之间的距离。相似的图像被认为拥有相似的内容,机器学习中数据点之间的距离非常重要。但定义相似性并没有听上去那么简单。例如,如果根据每张图像里的红色值来判断,那么两张图像在数据空间中的距离是什么?


核理论表明,许多关于数据空间相似性的定义在数学上等价于一个更大、可能是无限大的空间中对相似性的简单度量(见图 1)。因此,每次比较两张图像的时候,都要将图像隐式地映射到一个大空间的表征,然后简单地计算相似性。普通计算机无法显式地计算这种大型表征,但也许量子计算机存在这种可能性?量子计算机可以在极大的空间中展开计算,如果将数据映射到只存在量子态的空间中会怎么样呢?


图 1:量子增强机器学习。Havlíček 等人展示了量子计算机如何提升机器学习算法的性能。在这个简单的图示中,常规(经典)计算机将机器学习用于动物。图像的像素颜色相似,则在数据空间中彼此靠近。经典计算机将这些数据发送至量子计算机,后者将每一幅图像映射到量子空间中的特定量子态。数据空间中彼此靠近但内容不同的图像由量子空间中相距甚远的量子态来表示。量子计算机将量子态之间的距离发送至经典计算机,以提升图像分类效果。


几乎是在同一时间,Havlíček 等人和 Maria Schuld 的研究团队意识到机器学习和量子计算之间可能存在密切联系。值得注意的是,两个团队提出了本质相同的两种策略,即设计用于机器学习的量子算法。第一种策略仅能实现量子计算机的最小使用,将其作为常规机器学习系统的硬件补充:当给定两个数据点时,量子设备返回相似性。第二种策略是在量子计算机上执行实际学习,经典计算机作为辅助。


Havlíček 等人的一项关键贡献是,他们在原理验证试验中基于真实的量子计算机(IBM 的量子计算机)实现了这两种策略。尽管一些新闻报道有些夸张,但任何尝试过量子计算的人都知道从这些设备中收集有意义的数据是非常困难的,因为量子计算中存在大量实验噪声。这可能也是他们在实验中仅使用了量子裸机的原因,在一些人看来这已经足够多了。量子空间仅有四个维度,因为该设置使用了 IBM 最小的 5 量子比特计算机的两个量子比特(qubit),而目前 IBM 云服务已经能够提供 20 量子比特设备。数据集也经过类似的手工处理,使其在四维量子空间中易于分析。


然而,Havlíček 及其同事的研究展示了一种有趣的原理验证试验——使用量子计算机进行机器学习,这说不定是一种变革性方法。现在已有很多研究进行了大量尝试,试图将更流行的人工神经网络与量子计算结合起来,核方法为机器学习和量子理论提供了一座很自然的桥梁。但是,意识到这座桥的存在还只是开始。


例如,Havlíček 等人在量子空间中表示数据的方式是否可用于现实世界的机器学习应用,这仍待观察。也就是说,我们不知道这种方法是否与有意义的相似性方法相关,比如在动物图像分类时,将猫的图像放得近一些,而不是将猫图像放在狗图像旁边。此外,我们不清楚是否存在其他更好的策略。这些技术是否已经足够好,可以打败有将近 30 年历史的经典方法?如果答案是肯定的,那么寻找量子计算机「杀手级应用」的行动可以告一段落了。然而,这个问题的答案可能要复杂得多。


论文:Supervised learning with quantum-enhanced feature spaces



文章链接:https://www.nature.com/articles/s41586-019-0980-2


摘要:机器学习和量子计算这两种技术均具备改变计算方式的潜力,以解决之前的难题。机器学习核方法在模式识别中广泛使用,例如(SVM)是处理分类问题的最著名方法。然而,这一成功解决方案也存在局限,当特征空间变大时,SVM 核函数计算成本高昂,难以估计。量子算法中计算加速的核心元素是通过可控的纠缠和干预利用巨大的量子态空间。本研究中,我们提出了两种基于超导处理器的量子算法,并进行了大量实验。这两种方法的核心要素是将量子态空间作为特征空间来使用。使用经过量子增强的特征空间(仅能够在量子计算机上高效获取)提供了一种可能的路径,导向量子优势。这两种算法可解决监督学习问题:分类器的构建。其中一种方法是量子变分分类器,它使用变分量子电路(variational quantum circuit)对数据进行分类,运作方式与常规 SVM 很类似。另一种方法是量子核估计(quantum kernel estimator),它使用量子计算机估计核函数,并优化经典 SVM。这两种方法为探索将带噪声的中间尺度量子计算机应用到机器学习提供了工具。


量子变分分类器


量子变分分类器使用变分量子电路实现,量子电路包含三部分:特征图编码、变分优化和度量。


量子变分分类器图示。


特征图编码


变分优化


量子核估计



量子核函数



实验实现



原文链接:https://www.nature.com/articles/d41586-019-00771-0



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

阅读39734
nature 
举报0
关注机器之心微信号:almosthuman2014

用微信扫描二维码即可关注
声明

1、头条易读遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2、本文内容来自“机器之心”微信公众号,文章版权归机器之心公众号所有。

评论
更多

文章来自于公众号:

机器之心

微信号:almosthuman2014

邮箱qunxueyuan#163.com(将#换成@)
微信编辑器
免责声明
www.weixinyidu.com   免责声明
版权声明:本站收录微信公众号和微信文章内容全部来自于网络,仅供个人学习、研究或者欣赏使用。版权归原作者所有。禁止一切商业用途。其中内容并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。如果您发现头条易读网站上有侵犯您的知识产权的内容,请与我们联系,我们会及时修改或删除。
本站声明:本站与腾讯微信、微信公众平台无任何关联,非腾讯微信官方网站。