嘈杂的中间级量子(NISQ)计算机的出现对设计量子神经网络进行了全量子学习任务来提高一个至关重要的挑战。为了弥合差距,这项工作提出了一种通过在变分量子电路(VQC)上的Quantum嵌入量子嵌入量子嵌入的可训练量子张量网络(QTN)来提出名为QTN-VQC的端到端学习框架。QTN的架构由参数张力列车网络组成,用于特征提取和普罗斯嵌入的张量产品。我们在两个观点突出显示QTN的QTN:(1)我们通过分析输入特征的表示功率理论上表征QTN;(2)QTN使端到端的参数模型管道,即QTN-VQC,从生成估计输出测量。我们在Mnist DataSet上的实验证明了QTN对Quantum嵌入其他量子嵌入方法的优点。
translated by 谷歌翻译
嘈杂的中间尺度量子(NISQ)设备可以实现量子神经网络(QNN)的变异量子电路(VQC)。尽管基于VQC的QNN在许多机器学习任务中都取得了成功,但VQC的表示和泛化能力仍然需要进一步研究,尤其是在涉及经典输入的维度降低时。在这项工作中,我们首先提出了一个端到端量子神经网络,即TTN-VQC,该网络由基于张量训练网络(TTN)组成,用于降低维数和用于功能性回归的VQC。 。然后,我们旨在根据表示和泛化能力的TTN-VQC的错误性能分析。我们还通过利用polyak-lojasiewicz(PL)条件来表征TTN-VQC的优化属性。此外,我们在手写数字分类数据集上进行了功能回归的实验,以证明我们的理论分析是合理的。
translated by 谷歌翻译
In recent times, Variational Quantum Circuits (VQC) have been widely adopted to different tasks in machine learning such as Combinatorial Optimization and Supervised Learning. With the growing interest, it is pertinent to study the boundaries of the classical simulation of VQCs to effectively benchmark the algorithms. Classically simulating VQCs can also provide the quantum algorithms with a better initialization reducing the amount of quantum resources needed to train the algorithm. This manuscript proposes an algorithm that compresses the quantum state within a circuit using a tensor ring representation which allows for the implementation of VQC based algorithms on a classical simulator at a fraction of the usual storage and computational complexity. Using the tensor ring approximation of the input quantum state, we propose a method that applies the parametrized unitary operations while retaining the low-rank structure of the tensor ring corresponding to the transformed quantum state, providing an exponential improvement of storage and computational time in the number of qubits and layers. This approximation is used to implement the tensor ring VQC for the task of supervised learning on Iris and MNIST datasets to demonstrate the comparable performance as that of the implementations from classical simulator using Matrix Product States.
translated by 谷歌翻译
预计人工神经网络的领域将强烈受益于量子计算机的最新发展。特别是Quantum Machine Learning,一类利用用于创建可训练神经网络的Qubits的量子算法,将提供更多的力量来解决模式识别,聚类和机器学习等问题。前馈神经网络的构建块由连接到输出神经元的一层神经元组成,该输出神经元根据任意激活函数被激活。相应的学习算法以Rosenblatt Perceptron的名义。具有特定激活功能的量子感知是已知的,但仍然缺乏在量子计算机上实现任意激活功能的一般方法。在这里,我们用量子算法填充这个间隙,该算法能够将任何分析激活功能近似于其功率系列的任何给定顺序。与以前的提案不同,提供不可逆转的测量和简化的激活功能,我们展示了如何将任何分析功能近似于任何所需的准确性,而无需测量编码信息的状态。由于这种结构的一般性,任何前锋神经网络都可以根据Hornik定理获取通用近似性质。我们的结果重新纳入栅极型量子计算机体系结构中的人工神经网络科学。
translated by 谷歌翻译
模型压缩(例如修剪和量化)已广泛应用于在资源有限的经典设备上优化神经网络。最近,对变分量子电路(VQC)的兴趣越来越大,即量子计算机上的一种神经网络(又称量子神经网络)。众所周知,近期的量子设备具有高噪声和有限的资源(即量子位,Qubits);但是,如何压缩量子神经网络尚未得到彻底研究。人们可能会认为将经典压缩技术应用于量子场景是很简单的。但是,本文表明,量子和经典神经网络的压缩之间存在差异。根据我们的观察,我们声称必须参与压缩过程。最重要的是,我们提出了第一个系统的框架,即CompVQC,以压缩量子神经网络(QNNS)。在CompVQC中,关键组件是一种新型的压缩算法,该算法基于乘数的交替方向方法(ADMM)。方法。实验证明了COMPVQC的优势,以微不足道的精度下降(<1%)降低了电路深度(几乎超过2.5%),这表现优于其他竞争对手。另一个有前途的事实是,我们的COMPVQC确实可以促进QNN在近期噪声量子设备上的鲁棒性。
translated by 谷歌翻译
量子计算机是下一代设备,有望执行超出古典计算机范围的计算。实现这一目标的主要方法是通过量子机学习,尤其是量子生成学习。由于量子力学的固有概率性质,因此可以合理地假设量子生成学习模型(QGLM)可能会超过其经典对应物。因此,QGLM正在从量子物理和计算机科学社区中受到越来越多的关注,在这些QGLM中,可以在近期量子机上有效实施各种QGLM,并提出了潜在的计算优势。在本文中,我们从机器学习的角度回顾了QGLM的当前进度。特别是,我们解释了这些QGLM,涵盖了量子电路出生的机器,量子生成的对抗网络,量子玻尔兹曼机器和量子自动编码器,作为经典生成学习模型的量子扩展。在这种情况下,我们探讨了它们的内在关系及其根本差异。我们进一步总结了QGLM在常规机器学习任务和量子物理学中的潜在应用。最后,我们讨论了QGLM的挑战和进一步研究指示。
translated by 谷歌翻译
Recent developments in quantum computing and machine learning have propelled the interdisciplinary study of quantum machine learning. Sequential modeling is an important task with high scientific and commercial value. Existing VQC or QNN-based methods require significant computational resources to perform the gradient-based optimization of a larger number of quantum circuit parameters. The major drawback is that such quantum gradient calculation requires a large amount of circuit evaluation, posing challenges in current near-term quantum hardware and simulation software. In this work, we approach sequential modeling by applying a reservoir computing (RC) framework to quantum recurrent neural networks (QRNN-RC) that are based on classical RNN, LSTM and GRU. The main idea to this RC approach is that the QRNN with randomly initialized weights is treated as a dynamical system and only the final classical linear layer is trained. Our numerical simulations show that the QRNN-RC can reach results comparable to fully trained QRNN models for several function approximation and time series prediction tasks. Since the QRNN training complexity is significantly reduced, the proposed model trains notably faster. In this work we also compare to corresponding classical RNN-based RC implementations and show that the quantum version learns faster by requiring fewer training epochs in most cases. Our results demonstrate a new possibility to utilize quantum neural network for sequential modeling with greater quantum hardware efficiency, an important design consideration for noisy intermediate-scale quantum (NISQ) computers.
translated by 谷歌翻译
本文旨在研究基于电路的混合量子卷积神经网络(QCNNS)如何在遥感的上下文中成功地在图像分类器中成功使用。通过在标准神经网络内引入量子层来丰富CNN的经典架构。本工作中提出的新型QCNN应用于土地使用和陆地覆盖(LULC)分类,选择为地球观测(EO)用例,并在欧元区数据集上测试用作参考基准。通过证明QCNN性能高于经典对应物,多标量分类的结果证明了所提出的方法的有效性。此外,各种量子电路的研究表明,利用量子纠缠的诸如最佳分类评分。本研究强调了将量子计算应用于EO案例研究的潜在能力,并为期货调查提供了理论和实验背景。
translated by 谷歌翻译
在过去的十年中,机器学习彻底改变了基于视力的质量评估,卷积神经网络(CNN)现在已成为标准。在本文中,我们考虑了该开发中的潜在下一步,并描述了有效地将经典图像数据映射到量子状态并允许可靠的图像分析的Quanvolutional神经网络(QNN)算法。我们实际上演示了如何在计算机视觉中利用量子设备以及如何将量子卷积引入古典CNN中。在处理工业质量控制中的现实世界用例时,我们在Pennylane框架内实施了混合QNN模型,并从经验上观察它,可以使用比经典CNN更少的培训数据实现更好的预测。换句话说,我们从经验上观察到真正的量子优势,对于由于卓越的数据编码而引起的工业应用。
translated by 谷歌翻译
我们提出了一种新的混合系统,用于通过使用多目标遗传算法在灰度图像上自动生成和训练量子启发的分类器。我们定义一个动态健身函数,以获得最小的电路和最高的观点数据准确性,以确保所提出的技术是可推广且健壮的。我们通过惩罚其外观来最大程度地减少生成电路的复杂性。我们使用二维降低方法减少图像的大小:主成分分析(PCA),该分析(PCA)是为了优化目的而在个体中编码的,以及一个小的卷积自动编码器(CAE)。将这两种方法相互比较,并采用经典的非线性方法来理解其行为,并确保分类能力是由于量子电路而不是用于降低维度的预处理技术引起的。
translated by 谷歌翻译
变异量子算法已被认为是实现有意义的任务(包括机器学习和组合优化)的近期量子优势的领先策略。当应用于涉及经典数据的任务时,这种算法通常从用于数据编码的量子电路开始,然后训练量子神经网络(QNN)以最小化目标函数。尽管已经广泛研究了QNN,以提高这些算法在实际任务上的性能,但系统地了解编码数据对最终性能的影响存在差距。在本文中,我们通过考虑基于参数化量子电路的常见数据编码策略来填补这一空白。我们证明,在合理的假设下,平均编码状态与最大混合状态之间的距离可以明确地相对于编码电路的宽度和深度。该结果特别意味着平均编码状态将以指数速度的深度速度集中在最大混合状态上。这种浓度严重限制了量子分类器的功能,并严格限制了从量子信息的角度来看编码状态的区分性。我们通过在合成和公共数据集上验证这些结果来进一步支持我们的发现。我们的结果突出了机器学习任务中量子数据编码的重要性,并可能阐明未来的编码策略。
translated by 谷歌翻译
使用量子卷积神经网络(QCNN)的机器学习在量子和经典数据分类中都取得了成功。在先前的研究中,在少数参数制度中,在相同的训练条件下,QCNN的分类准确性比其经典对应物具有更高的分类精度。但是,由于量子电路的大小有限,因此很难检查大规模量子模型的一般性能,这可以在不久的将来可靠地实施。我们建议转移学习是在嘈杂的中间量子量子时代利用小QCNN的有效策略。在经典到量词转移学习框架中,QCNN可以通过使用预训练的经典卷积神经网络(CNN)来解决复杂的分类问题,而无需大规模量子电路。我们对QCNN模型进行了数值模拟,并在转移学习下对MNIST数据分类进行了各种量子卷积和汇总操作,其中经典的CNN经过了时尚持续数据的培训。结果表明,在相似的训练条件下,从经典到量子CNN的转移学习比纯粹的经典转移学习模型要好得多。
translated by 谷歌翻译
在过去的十年中,机器学习取得了巨大的成功,其应用程序从面部识别到自然语言处理不等。同时,在量子计算领域已经取得了快速的进步,包括开发强大的量子算法和高级量子设备。机器学习与量子物理学之间的相互作用具有将实际应用带给现代社会的有趣潜力。在这里,我们以参数化量子电路的形式关注量子神经网络。我们将主要讨论各种结构和编码量子神经网络的策略,以进行监督学习任务,并利用Yao.jl进行基准测试,这是用朱莉娅语言编写的量子模拟软件包。这些代码是有效的,旨在为科学工作中的初学者提供便利,例如开发强大的变分量子学习模型并协助相应的实验演示。
translated by 谷歌翻译
Hybrid quantum-classical systems make it possible to utilize existing quantum computers to their fullest extent. Within this framework, parameterized quantum circuits can be regarded as machine learning models with remarkable expressive power. This Review presents the components of these models and discusses their application to a variety of data-driven tasks, such as supervised learning and generative modeling. With an increasing number of experimental demonstrations carried out on actual quantum hardware and with software being actively developed, this rapidly growing field is poised to have a broad spectrum of real-world applications.
translated by 谷歌翻译
本文介绍了一个基于量子神经网络的深度学习系统,用于在平面上特定几何模式(两个摩尔分类问题)的点的二进制分类。我们认为,混合深度学习系统(经典 +量子)的使用不仅可以在计算加速度方面带来合理的好处,而且在理解基本现象和机制方面都可以带来好处。这将导致创建新的机器学习形式,以及量子计算世界中的强大发展。所选数据集基于2D二进制分类生成器,该生成器有助于测试特定算法的有效性;它是一组2D点,形成两个散布的半圆。它在二维表示空间中显示了两个分离的数据集:因此,功能是单个点的两个坐标,$ x_1 $和$ x_2 $。目的是产生一个量子深神经网络,其可识别和分类点的可训练参数数量最少。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
Variational quantum circuits have been widely employed in quantum simulation and quantum machine learning in recent years. However, quantum circuits with random structures have poor trainability due to the exponentially vanishing gradient with respect to the circuit depth and the qubit number. This result leads to a general standpoint that deep quantum circuits would not be feasible for practical tasks. In this work, we propose an initialization strategy with theoretical guarantees for the vanishing gradient problem in general deep quantum circuits. Specifically, we prove that under proper Gaussian initialized parameters, the norm of the gradient decays at most polynomially when the qubit number and the circuit depth increase. Our theoretical results hold for both the local and the global observable cases, where the latter was believed to have vanishing gradients even for very shallow circuits. Experimental results verify our theoretical findings in the quantum simulation and quantum chemistry.
translated by 谷歌翻译
量子计算是使用量子力学执行计算的过程。该领域研究某些亚杀菌粒子的量子行为,以便随后在执行计算,以及大规模信息处理中使用。这些能力可以在计算时间和经典计算机上的成本方面提供量子计算机的优势。如今,由于计算复杂性或计算所需的时间,具有科学挑战,这是由于古典计算而无法执行,并且量子计算是可能的答案之一。然而,电流量子器件尚未实现必要的QUBITS,并且没有足够的容错才能实现这些目标。尽管如此,还有其他领域,如机器学习或化学,其中量子计算对电流量子器件有用。本手稿旨在展示2017年和2021年之间发布的论文的系统文献综述,以确定,分析和分类量子机器学习和其应用中使用的不同算法。因此,该研究确定了使用量子机器学习技术和算法的52篇文章。发现算法的主要类型是经典机器学习算法的量子实现,例如支持向量机或K最近邻模型,以及古典的深度学习算法,如量子神经网络。许多文章试图解决目前通过古典机器学习回答的问题,但使用量子设备和算法。即使结果很有希望,量子机器学习也远未实现其全部潜力。由于现有量子计算机缺乏足够的质量,速度和比例以允许量子计算来实现其全部潜力,因此需要提高量子硬件。
translated by 谷歌翻译
我们设计和分析了量子变压器,扩展了最先进的经典变压器神经网络体系结构,已知在自然语言处理和图像分析中表现出色。在先前用于数据加载和正交神经层的参数化量子电路的工作的基础上,我们引入了三种量子注意机制,包括基于复合矩阵的量子变压器。这些量子体系结构可以使用浅量子电路构建,并可以提供定性不同的分类模型。与最佳的经典变压器和其他经典基准相比,我们对标准医疗图像数据集进行了量子变压器的广泛模拟,这些量子变压器表现出竞争力,有时表现更好。与经典算法相对于分类图像的大小,我们的量子注意层的计算复杂性被证明是有利的。与拥有数百万参数的最佳经典方法相比,我们的量子体系结构具有数千个参数。最后,我们在超导量子计算机上实施了量子变压器,并获得了多达六个量子实验的令人鼓舞的结果。
translated by 谷歌翻译
最近的工作已经开始探索参数化量子电路(PQC)作为一般函数近似器的潜力。在这项工作中,我们提出了一种量子古典的深网络结构,以提高经典的CNN模型辨别性。卷积层使用线性滤波器来扫描输入数据。此外,我们构建PQC,这是一种更有效的函数近似器,具有更复杂的结构,以捕获接收领域内的特征。通过以与CNN类似的方式将PQC滑过输入来获得特征图。我们还为所提出的模型提供培训算法。我们设计中使用的混合模型通过数值模拟验证。我们展示了MNIST上合理的分类性能,我们将性能与不同的设置中的模型进行比较。结果揭示了具有高表现性的ANSATZ模型实现了更低的成本和更高的准确性。
translated by 谷歌翻译