Variational quantum circuits have been widely employed in quantum simulation and quantum machine learning in recent years. However, quantum circuits with random structures have poor trainability due to the exponentially vanishing gradient with respect to the circuit depth and the qubit number. This result leads to a general standpoint that deep quantum circuits would not be feasible for practical tasks. In this work, we propose an initialization strategy with theoretical guarantees for the vanishing gradient problem in general deep quantum circuits. Specifically, we prove that under proper Gaussian initialized parameters, the norm of the gradient decays at most polynomially when the qubit number and the circuit depth increase. Our theoretical results hold for both the local and the global observable cases, where the latter was believed to have vanishing gradients even for very shallow circuits. Experimental results verify our theoretical findings in the quantum simulation and quantum chemistry.
translated by 谷歌翻译
探索近期量子设备的量子应用是具有理论和实际利益的量子信息科学的快速增长领域。建立这种近期量子应用的领先范式是变异量子算法(VQAS)。这些算法使用经典优化器来训练参数化的量子电路以完成某些任务,其中电路通常是随机初始初始初始化的。在这项工作中,我们证明,对于一系列此类随机电路,成本函数的变化范围通过调整电路中的任何局部量子门在具有很高概率的Qubits数量中呈指数级消失。该结果可以自然地统一对基于梯度和无梯度的优化的限制,并揭示对VQA的训练景观的额外严格限制。因此,对VQA的训练性的基本限制是拆开的,这表明具有指数尺寸的希尔伯特空间中优化硬度的基本机制。我们通过代表性VQA的数值模拟进一步展示了结果的有效性。我们认为,这些结果将加深我们对VQA的可扩展性的理解,并阐明了搜索具有优势的近期量子应用程序。
translated by 谷歌翻译
变异量子算法已被认为是实现有意义的任务(包括机器学习和组合优化)的近期量子优势的领先策略。当应用于涉及经典数据的任务时,这种算法通常从用于数据编码的量子电路开始,然后训练量子神经网络(QNN)以最小化目标函数。尽管已经广泛研究了QNN,以提高这些算法在实际任务上的性能,但系统地了解编码数据对最终性能的影响存在差距。在本文中,我们通过考虑基于参数化量子电路的常见数据编码策略来填补这一空白。我们证明,在合理的假设下,平均编码状态与最大混合状态之间的距离可以明确地相对于编码电路的宽度和深度。该结果特别意味着平均编码状态将以指数速度的深度速度集中在最大混合状态上。这种浓度严重限制了量子分类器的功能,并严格限制了从量子信息的角度来看编码状态的区分性。我们通过在合成和公共数据集上验证这些结果来进一步支持我们的发现。我们的结果突出了机器学习任务中量子数据编码的重要性,并可能阐明未来的编码策略。
translated by 谷歌翻译
已经提出了一些用于量子神经网络(QNN)的体系结构,目的是有效地执行机器学习任务。对于特定的QNN结构,迫切需要进行严格的缩放结果,以了解哪种(如果有的话)可以大规模训练。在这里,我们为最近提出的架构分析了梯度缩放(以及训练性),该体系结构称为耗散QNNS(DQNNS),其中每层的输入量子位在该图层的输出处丢弃。我们发现DQNNS可以表现出贫瘠的高原,即在量子数量中呈指数级消失的梯度。此外,我们在不同条件下(例如不同的成本函数和电路深度)的DQNN梯度的缩放范围提供定量界限,并表明并非总是可以保证可训练性。
translated by 谷歌翻译
量子Gibbs状态的制备是量子计算的重要组成部分,在各种区域具有广泛的应用,包括量子仿真,量子优化和量子机器学习。在本文中,我们提出了用于量子吉布斯状态准备的变分杂化量子典型算法。我们首先利用截短的泰勒系列来评估自由能,并选择截短的自由能量作为损耗功能。然后,我们的协议训练参数化量子电路以学习所需的量子吉布斯状态。值得注意的是,该算法可以在配备有参数化量子电路的近期量子计算机上实现。通过执行数值实验,我们显示浅参数化电路,只有一个额外的量子位训练,以便准备诸如高于95%的保真度的insing链和旋转链Gibbs状态。特别地,对于ising链模型,我们发现,只有一个参数和一个额外的qubit的简化电路ansatz可以训练,以在大于2的逆温度下实现吉布斯状态准备中的99%保真度。
translated by 谷歌翻译
有望在近期量子计算机上建立有价值的应用程序。但是,最近的作品指出,VQA的性能极大地依赖于Ansatzes的表现性,并且受到优化问题(例如贫瘠的高原(即消失的梯度))的严重限制。这项工作提出了国家有效的ANSATZ(SEA),以改善训练性,以进行准确的基态制备。我们表明,海洋可以产生一个任意纯状态,其参数比通用的安萨兹少得多,从而使其适合基态估计等任务有效。然后,我们证明可以通过灵活地调节海洋的纠缠能力来有效地通过海洋有效地减轻贫瘠的高原,并可以最大程度地提高训练性。最后,我们研究了大量的示例,在基础状态估计中,我们在成本梯度和收敛速度的幅度上得到了显着改善。
translated by 谷歌翻译
FIG. 1. Schematic diagram of a Variational Quantum Algorithm (VQA). The inputs to a VQA are: a cost function C(θ), with θ a set of parameters that encodes the solution to the problem, an ansatz whose parameters are trained to minimize the cost, and (possibly) a set of training data {ρ k } used during the optimization. Here, the cost can often be expressed in the form in Eq. ( 3), for some set of functions {f k }. Also, the ansatz is shown as a parameterized quantum circuit (on the left), which is analogous to a neural network (also shown schematically on the right). At each iteration of the loop one uses a quantum computer to efficiently estimate the cost (or its gradients). This information is fed into a classical computer that leverages the power of optimizers to navigate the cost landscape C(θ) and solve the optimization problem in Eq. ( 1). Once a termination condition is met, the VQA outputs an estimate of the solution to the problem. The form of the output depends on the precise task at hand. The red box indicates some of the most common types of outputs.
translated by 谷歌翻译
优化参数化量子电路(PQC)是使用近期量子计算机的领先方法。但是,对于PQC的成本函数景观知之甚少,这阻碍了量子意识到的优化器的进展。在这项工作中,我们研究了PQCS已观察到的三种不同景观特征之间的联系:(1)指数呈指数消失的梯度(称为贫瘠的高原),(2)关于平均值的成本成本集中,以及(3)(3)指数的狭窄小小的(称为狭窄的峡谷)。我们在分析上证明,这三个现象一起出现,即当发生一个现象时,其他两个现象也是如此。该结果的一个关键含义是,可以通过成本差而不是通过计算更昂贵的梯度来数字诊断贫瘠的高原。更广泛地说,我们的工作表明,量子力学排除了某些成本景观(否则在数学上可能是可能的),因此从量子基础的角度来看,我们的结果很有趣。
translated by 谷歌翻译
变形量子算法(VQAS)可以是噪声中间级量子(NISQ)计算机上的量子优势的路径。自然问题是NISQ设备的噪声是否对VQA性能的基本限制。我们严格证明对嘈杂的VQAS进行严重限制,因为噪音导致训练景观具有贫瘠高原(即消失梯度)。具体而言,对于考虑的本地Pauli噪声,我们证明梯度在Qubits $ N $的数量中呈指数呈指数增长,如果Ansatz的深度以$ N $线性增长。这些噪声诱导的贫瘠强韧(NIBPS)在概念上不同于无辐射贫瘠强度,其与随机参数初始化相关联。我们的结果是为通用Ansatz制定的,该通用ansatz包括量子交替运算符ANSATZ和酉耦合簇Ansatz等特殊情况。对于前者来说,我们的数值启发式展示了用于现实硬件噪声模型的NIBP现象。
translated by 谷歌翻译
预计变形量子算法将展示量子计算在近期嘈杂量子计算机上的优点。然而,由于算法的大小增加,训练这种变分量子算法遭受梯度消失。以前的工作无法处理由现实量子硬件的必然噪声效应引起的渐变消失。在本文中,我们提出了一种新颖的培训方案,以减轻这种噪声引起的渐变消失。我们首先介绍一种新的成本函数,其中通过在截断的子空间中使用无意程可观察来显着增强梯度。然后,我们证明可以通过从新的成本函数与梯度优化原始成本函数来达到相同的最小值。实验表明,我们的新培训方案对于各种任务的主要变分量子算法非常有效。
translated by 谷歌翻译
The emergence of variational quantum applications has led to the development of automatic differentiation techniques in quantum computing. Recently, Zhu et al. (PLDI 2020) have formulated differentiable quantum programming with bounded loops, providing a framework for scalable gradient calculation by quantum means for training quantum variational applications. However, promising parameterized quantum applications, e.g., quantum walk and unitary implementation, cannot be trained in the existing framework due to the natural involvement of unbounded loops. To fill in the gap, we provide the first differentiable quantum programming framework with unbounded loops, including a newly designed differentiation rule, code transformation, and their correctness proof. Technically, we introduce a randomized estimator for derivatives to deal with the infinite sum in the differentiation of unbounded loops, whose applicability in classical and probabilistic programming is also discussed. We implement our framework with Python and Q#, and demonstrate a reasonable sample efficiency. Through extensive case studies, we showcase an exciting application of our framework in automatically identifying close-to-optimal parameters for several parameterized quantum applications.
translated by 谷歌翻译
变分量子本层(VQE)是一种领先的策略,可利用嘈杂的中间量子量子(NISQ)机器来解决化学问题的表现优于经典方法。为了获得大规模问题的计算优势,可行的解决方案是量子分布式优化(QUDIO)方案,该方案将原始问题分配到$ K $子问题中,并将其分配给$ K $量子机器,然后将其分配给并行优化。尽管有可证明的加速度比率,但Qudio的效率可能会因同步操作而大大降低。为了征服这个问题,我们在这里提议在量子分布式优化期间,将洗牌措施涉及到当地的汉密尔顿人。与Qudio相比,Shuffle-Qudio显着降低了量子处理器之间的通信频率,并同时达到了更好的训练性。特别是,我们证明,Shuffle-Qudio可以比Qudio更快地收敛速率。进行了广泛的数值实验,以验证估计分子的基态能量的任务中,隔离式时间速度允许壁式时间速度和低近似误差。我们从经验上证明,我们的建议可以与其他加速技术(例如操作员分组)无缝集成,以进一步提高VQE的疗效。
translated by 谷歌翻译
变异量子算法(VQAS)为通过嘈杂的中间规模量子(NISQ)处理器获得量子优势提供了最有希望的途径。这样的系统利用经典优化来调整参数化量子电路(PQC)的参数。目标是最大程度地减少取决于从PQC获得的测量输出的成本函数。通常通过随机梯度下降(SGD)实现优化。在NISQ计算机上,由于缺陷和破坏性而引起的栅极噪声通过引入偏差会影响随机梯度的估计。量子误差缓解(QEM)技术可以减少估计偏差而无需量子数量增加,但它们又导致梯度估计的方差增加。这项工作研究了量子门噪声对SGD收敛的影响,而VQA的基本实例是变异的eigensolver(VQE)。主要目标是确定QEM可以增强VQE的SGD性能的条件。结果表明,量子门噪声在SGD的收敛误差(根据参考无噪声PQC评估)诱导非零误差 - 基础,这取决于噪声门的数量,噪声的强度以及可观察到的可观察到的特征性被测量和最小化。相反,使用QEM,可以获得任何任意小的误差。此外,对于有或没有QEM的误差级别,QEM可以减少所需的迭代次数,但是只要量子噪声水平足够小,并且在每种SGD迭代中允许足够大的测量值。最大切割问题的数值示例证实了主要理论发现。
translated by 谷歌翻译
Quantum神经网络(QNN)围绕有效分析量子数据产生兴奋。但是,对于许多QNN架构,这种兴奋是通过指数消失的梯度的存在,被称为贫瘠高原景观。最近,已经提出了量子卷积神经网络(QCNNS),涉及一系列卷积和汇集层,其减少Qubits的数量,同时保留有关相关数据特征的信息。在这项工作中,我们严格地分析了QCNN架构中参数的渐变缩放。我们发现梯度的方差不会比多项式更快地消失,这意味着QCNN不会表现出贫瘠的强力。这为随机初始化QCNN的培训提供了一种分析保证,该初始化QCNNS突出显示QCNNS在随机初始化下是与许多其他QNN架构的可训练。为了获得我们的结果,我们介绍了一种基于图形的基于图形的方法,以分析哈尔分布式统一的预期值,这可能在其他情况下很有用。最后,我们执行数值模拟以验证我们的分析结果。
translated by 谷歌翻译
关于参数化量子电路(PQC)的成本景观知之甚少。然而,PQC被用于量子神经网络和变异量子算法中,这可能允许近期量子优势。此类应用需要良好的优化器来培训PQC。最近的作品集中在专门针对PQC量身定制的量子意识优化器上。但是,对成本景观的无知可能会阻碍这种优化者的进步。在这项工作中,我们在分析上证明了PQC的两个结果:(1)我们在PQC中发现了指数较大的对称性,在成本景观中产生了最小值的呈指数较大的变性。或者,这可以作为相关超参数空间体积的指数减少。 (2)我们研究了噪声下对称性的弹性,并表明,尽管它在Unital噪声下是保守的,但非阴道通道可以打破这些对称性并提高最小值的变性,从而导致多个新的局部最小值。基于这些结果,我们引入了一种称为基于对称的最小跳跃(SYMH)的优化方法,该方法利用了PQC中的基础对称性。我们的数值模拟表明,在存在与当前硬件相当的水平上,SYMH在存在非阴性噪声的情况下提高了整体优化器性能。总体而言,这项工作从局部门转换中得出了大规模电路对称性,并使用它们来构建一种噪声吸引的优化方法。
translated by 谷歌翻译
预计变形量子算法将展示量子计算在近期嘈杂量子计算机上的优点。然而,由于算法的大小增加,训练这种变分量子算法遭受梯度消失。以前的工作无法处理由现实量子硬件的必然噪声效应引起的渐变消失。在本文中,我们提出了一种新颖的培训方案,以减轻这种噪声引起的渐变消失。我们首先介绍一种新的成本函数,其中通过在截断的子空间中使用无意程可观察来显着增强梯度。然后,我们证明可以通过从新的成本函数与梯度优化原始成本函数来达到相同的最小值。实验表明,我们的新培训方案对于各种任务的主要变分量子算法非常有效。
translated by 谷歌翻译
Quantum-enhanced data science, also known as quantum machine learning (QML), is of growing interest as an application of near-term quantum computers. Variational QML algorithms have the potential to solve practical problems on real hardware, particularly when involving quantum data. However, training these algorithms can be challenging and calls for tailored optimization procedures. Specifically, QML applications can require a large shot-count overhead due to the large datasets involved. In this work, we advocate for simultaneous random sampling over both the dataset as well as the measurement operators that define the loss function. We consider a highly general loss function that encompasses many QML applications, and we show how to construct an unbiased estimator of its gradient. This allows us to propose a shot-frugal gradient descent optimizer called Refoqus (REsource Frugal Optimizer for QUantum Stochastic gradient descent). Our numerics indicate that Refoqus can save several orders of magnitude in shot cost, even relative to optimizers that sample over measurement operators alone.
translated by 谷歌翻译
现代量子机学习(QML)方法涉及在训练数据集上进行各种优化参数化量子电路,并随后对测试数据集(即,泛化)进行预测。在这项工作中,我们在培训数量为N $培训数据点后,我们在QML中对QML的普遍表现进行了全面的研究。我们表明,Quantum机器学习模型的泛化误差与$ T $培训门的尺寸在$ \ sqrt {t / n} $上缩放。当只有$ k \ ll t $ gates在优化过程中经历了大量变化时,我们证明了泛化误差改善了$ \ sqrt {k / n} $。我们的结果意味着将Unitaries编制到通常使用指数训练数据的量子计算行业的多项式栅极数量,这是一项通常使用指数尺寸训练数据的大量应用程序。我们还表明,使用量子卷积神经网络的相位过渡的量子状态的分类只需要一个非常小的训练数据集。其他潜在应用包括学习量子误差校正代码或量子动态模拟。我们的工作将新的希望注入QML领域,因为较少的培训数据保证了良好的概括。
translated by 谷歌翻译
量子机学习(QML)中的内核方法最近引起了人们的重大关注,作为在数据分析中获得量子优势的潜在候选者。在其他有吸引力的属性中,当训练基于内核的模型时,可以保证由于训练格局的凸度而找到最佳模型的参数。但是,这是基于以下假设:量子内核可以从量子硬件有效获得。在这项工作中,我们从准确估计内核值所需的资源的角度研究了量子内核的训练性。我们表明,在某些条件下,可以将量子内核在不同输入数据上的值呈指数浓缩(在量子数中)指向一些固定值,从而导致成功训练所需的测量数量的指数缩放。我们确定了可以导致集中度的四个来源,包括:数据嵌入,全球测量,纠缠和噪声的表达性。对于每个来源,分析得出量子内核的相关浓度结合。最后,我们表明,在处理经典数据时,训练用内核比对方法嵌入的参数化数据也容易受到指数浓度的影响。我们的结果通过数值仿真来验证几个QML任务。总体而言,我们提供指南,表明应避免某些功能,以确保量子内核方法的有效评估和训练性。
translated by 谷歌翻译
量子系统的许多基本属性都被其哈密顿和基态捕获。尽管基态制备(GSP)具有重要意义,但对于大规模的哈密顿人来说,这项任务在经典上是棘手的。发挥现代量子机的力量的量子神经网络(QNN)已成为征服此问题的领先协议。因此,如何增强QNN的性能成为GSP中的关键主题。经验证据表明,具有手工对称的Ansatzes的QNN通常比不对称Ansatzes的QNN具有更好的训练性,而理论解释却没有被探索。为了填补这一知识差距,我们在这里提出了有效的量子神经切线核(EQNTK),并将这一概念与过度参数化理论联系起来,以量化QNNS趋向全球最佳OPTA的融合。我们发现,对称Ansatzes的进步归因于其较大的EQNTK值,其有效尺寸很小,这要求很少的参数和量子电路深度达到过度参数化的制度,允许良性损失景观和快速收敛。在EQNTK的指导下,我们进一步设计了一种对称修剪(SP)方案,可以自动从过度参数化和不对称的对称的ANSATZ量身定制对称的ANSATZ,以极大地提高QNN的性能,而汉密尔顿的显式对称信息是不可用的。进行了广泛的数值模拟,以验证EQNTK的分析结果和SP的有效性。
translated by 谷歌翻译