虽然深受深度学习在各种科学和工程问题中,由于其强大的高维非线性映射能力,但它在科学知识发现中使用有限。在这项工作中,我们提出了一种基于深度学习的框架,以发现基于高分辨率微观模拟数据的粘性重力电流的宏观控制方程,而无需先前了解基础术语。对于具有不同粘度比的两个典型方案,基于深度学习的公式完全捕获与理论上派生的术语相同的主导术语,以描述验证所提出的框架的长期渐近行为。然后获得未知的宏观方程以描述用于描述短期行为,并且最终发现了额外的深度学习补偿项。后检测的比较表明,基于深度学习的PDE实际上比理论上衍生的PDE更好地在预测长期和短期制度中预测演化粘性重力电流。此外,拟议的框架被证明是对训练的非偏见数据噪声非常稳健,这高达20%。因此,所提出的深度学习框架表明,从原始实验或模拟导致数据空间中发现了在科学语义空间中发现了未经验证的内在法律的相当潜力。
translated by 谷歌翻译
数据驱动的PDE的发现最近取得了巨大进展,许多规范的PDE已成功地发现了概念验证。但是,在没有事先参考的情况下,确定最合适的PDE在实际应用方面仍然具有挑战性。在这项工作中,提出了物理信息的信息标准(PIC),以合成发现的PDE的简约和精度。所提出的PIC可在不同的物理场景中七个规范的PDE上获得最新的鲁棒性,并稀疏的数据,这证实了其处理困难情况的能力。该图片还用于从实际的物理场景中从微观模拟数据中发现未开采的宏观管理方程。结果表明,发现的宏观PDE精确且简约,并满足基础的对称性,从而有助于对物理过程的理解和模拟。 PIC的命题可以在发现更广泛的物理场景中发现未透视的管理方程式中PDE发现的实际应用。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
当系统中有某些未知术语和隐藏的物理机制时,基于第一原理的复杂物理系统的管理方程可能会非常具有挑战性。在这项工作中,我们采用深度学习体系结构来学习基于从完全动力学模型中获取的数据的等离子体系统的流体部分微分方程(PDE)。证明了学到的多臂流体PDE可以融合诸如Landau阻尼等动力学效应。基于学习的流体闭合,数据驱动的多音阶流体建模可以很好地再现从完全动力学模型中得出的所有物理量。Landau阻尼的计算阻尼率与完全动力学的模拟和线性理论一致。用于复杂物理系统的PDE的数据驱动的流体建模可以应用于改善流体闭合并降低全球系统多规模建模的计算成本。
translated by 谷歌翻译
拟合科学数据的部分微分方程(PDE)可以用可解释的机制来代表各种以数学为导向的受试者的物理定律。从科学数据中发现PDE的数据驱动的发现蓬勃发展,作为对自然界中复杂现象进行建模的新尝试,但是当前实践的有效性通常受数据的稀缺性和现象的复杂性的限制。尤其是,从低质量数据中发现具有高度非线性系数的PDE在很大程度上已经不足。为了应对这一挑战,我们提出了一种新颖的物理学指导学习方法,该方法不仅可以编码观察知识,例如初始和边界条件,而且还包含了基本的物理原理和法律来指导模型优化。我们从经验上证明,所提出的方法对数据噪声和稀疏性更为强大,并且可以将估计误差较大。此外,我们第一次能够发现具有高度非线性系数的PDE。凭借有希望的性能,提出的方法推动了PDE的边界,这可以通过机器学习模型来进行科学发现。
translated by 谷歌翻译
We present an end-to-end framework to learn partial differential equations that brings together initial data production, selection of boundary conditions, and the use of physics-informed neural operators to solve partial differential equations that are ubiquitous in the study and modeling of physics phenomena. We first demonstrate that our methods reproduce the accuracy and performance of other neural operators published elsewhere in the literature to learn the 1D wave equation and the 1D Burgers equation. Thereafter, we apply our physics-informed neural operators to learn new types of equations, including the 2D Burgers equation in the scalar, inviscid and vector types. Finally, we show that our approach is also applicable to learn the physics of the 2D linear and nonlinear shallow water equations, which involve three coupled partial differential equations. We release our artificial intelligence surrogates and scientific software to produce initial data and boundary conditions to study a broad range of physically motivated scenarios. We provide the source code, an interactive website to visualize the predictions of our physics informed neural operators, and a tutorial for their use at the Data and Learning Hub for Science.
translated by 谷歌翻译
Recent years have witnessed a growth in mathematics for deep learning--which seeks a deeper understanding of the concepts of deep learning with mathematics, and explores how to make it more robust--and deep learning for mathematics, where deep learning algorithms are used to solve problems in mathematics. The latter has popularised the field of scientific machine learning where deep learning is applied to problems in scientific computing. Specifically, more and more neural network architectures have been developed to solve specific classes of partial differential equations (PDEs). Such methods exploit properties that are inherent to PDEs and thus solve the PDEs better than classical feed-forward neural networks, recurrent neural networks, and convolutional neural networks. This has had a great impact in the area of mathematical modeling where parametric PDEs are widely used to model most natural and physical processes arising in science and engineering, In this work, we review such methods and extend them for parametric studies as well as for solving the related inverse problems. We equally proceed to show their relevance in some industrial applications.
translated by 谷歌翻译
在科学的背景下,众所周知的格言“一张图片胜过千言万语”可能是“一个型号胜过一千个数据集”。在本手稿中,我们将Sciml软件生态系统介绍作为混合物理法律和科学模型的信息,并使用数据驱动的机器学习方法。我们描述了一个数学对象,我们表示通用微分方程(UDE),作为连接生态系统的统一框架。我们展示了各种各样的应用程序,从自动发现解决高维汉密尔顿 - Jacobi-Bellman方程的生物机制,可以通过UDE形式主义和工具进行措辞和有效地处理。我们展示了软件工具的一般性,以处理随机性,延迟和隐式约束。这使得各种SCIML应用程序变为核心训练机构的核心集,这些训练机构高度优化,稳定硬化方程,并与分布式并行性和GPU加速器兼容。
translated by 谷歌翻译
Despite great progress in simulating multiphysics problems using the numerical discretization of partial differential equations (PDEs), one still cannot seamlessly incorporate noisy data into existing algorithms, mesh generation remains complex, and high-dimensional problems governed by parameterized PDEs cannot be tackled. Moreover, solving inverse problems with hidden physics is often prohibitively expensive and requires different formulations and elaborate computer codes. Machine learning has emerged as a promising alternative, but training deep neural networks requires big data, not always available for scientific problems. Instead, such networks can be trained from additional information obtained by enforcing the physical laws (for example, at random points in the continuous space-time domain). Such physics-informed learning integrates (noisy) data and mathematical models, and implements them through neural networks or other kernel-based regression networks. Moreover, it may be possible to design specialized network architectures that automatically satisfy some of the physical invariants for better accuracy, faster training and improved generalization. Here, we review some of the prevailing trends in embedding physics into machine learning, present some of the current capabilities and limitations and discuss diverse applications of physics-informed learning both for forward and inverse problems, including discovering hidden physics and tackling high-dimensional problems.
translated by 谷歌翻译
Machine learning-based modeling of physical systems has experienced increased interest in recent years. Despite some impressive progress, there is still a lack of benchmarks for Scientific ML that are easy to use but still challenging and representative of a wide range of problems. We introduce PDEBench, a benchmark suite of time-dependent simulation tasks based on Partial Differential Equations (PDEs). PDEBench comprises both code and data to benchmark the performance of novel machine learning models against both classical numerical simulations and machine learning baselines. Our proposed set of benchmark problems contribute the following unique features: (1) A much wider range of PDEs compared to existing benchmarks, ranging from relatively common examples to more realistic and difficult problems; (2) much larger ready-to-use datasets compared to prior work, comprising multiple simulation runs across a larger number of initial and boundary conditions and PDE parameters; (3) more extensible source codes with user-friendly APIs for data generation and baseline results with popular machine learning models (FNO, U-Net, PINN, Gradient-Based Inverse Method). PDEBench allows researchers to extend the benchmark freely for their own purposes using a standardized API and to compare the performance of new models to existing baseline methods. We also propose new evaluation metrics with the aim to provide a more holistic understanding of learning methods in the context of Scientific ML. With those metrics we identify tasks which are challenging for recent ML methods and propose these tasks as future challenges for the community. The code is available at https://github.com/pdebench/PDEBench.
translated by 谷歌翻译
最近的机器学习(ML)和深度学习(DL)的发展增加了所有部门的机会。 ML是一种重要的工具,可以应用于许多学科,但其直接应用于土木工程问题可能是挑战性的。在实验室中模拟的土木工程应用程序通常在现实世界测试中失败。这通常归因于用于培训和测试ML模型的数据之间的数据不匹配以及它在现实世界中遇到的数据,称为数据偏移的现象。然而,基于物理的ML模型集成了数据,部分微分方程(PDE)和数学模型以解决数据移位问题。基于物理的ML模型训练,以解决监督学习任务,同时尊重一般非线性方程描述的任何给定的物理定律。基于物理的ML,它在许多科学学科中占据中心阶段,在流体动力学,量子力学,计算资源和数据存储中起着重要作用。本文综述了基于物理学的ML历史及其在土木工程中的应用。
translated by 谷歌翻译
这项工作与发现物理系统的偏微分方程(PDE)有关。现有方法证明了有限观察结果的PDE识别,但未能保持令人满意的噪声性能,部分原因是由于次优估计衍生物并发现了PDE系数。我们通过引入噪音吸引物理学的机器学习(NPIML)框架来解决问题,以在任意分布后从数据中发现管理PDE。我们的建议是双重的。首先,我们提出了几个神经网络,即求解器和预选者,这些神经网络对隐藏的物理约束产生了可解释的神经表示。在经过联合训练之后,求解器网络将近似潜在的候选物,例如部分衍生物,然后将其馈送到稀疏的回归算法中,该算法最初公布了最有可能的PERSIMISIAL PDE,根据信息标准决定。其次,我们提出了基于离散的傅立叶变换(DFT)的Denoising物理信息信息网络(DPINNS),以提供一组最佳的鉴定PDE系数,以符合降低降噪变量。 Denoising Pinns的结构被划分为前沿投影网络和PINN,以前学到的求解器初始化。我们对五个规范PDE的广泛实验确认,该拟议框架为PDE发现提供了一种可靠,可解释的方法,适用于广泛的系统,可能会因噪声而复杂。
translated by 谷歌翻译
In this paper, we introduce PDE-LEARN, a novel PDE discovery algorithm that can identify governing partial differential equations (PDEs) directly from noisy, limited measurements of a physical system of interest. PDE-LEARN uses a Rational Neural Network, $U$, to approximate the system response function and a sparse, trainable vector, $\xi$, to characterize the hidden PDE that the system response function satisfies. Our approach couples the training of $U$ and $\xi$ using a loss function that (1) makes $U$ approximate the system response function, (2) encapsulates the fact that $U$ satisfies a hidden PDE that $\xi$ characterizes, and (3) promotes sparsity in $\xi$ using ideas from iteratively reweighted least-squares. Further, PDE-LEARN can simultaneously learn from several data sets, allowing it to incorporate results from multiple experiments. This approach yields a robust algorithm to discover PDEs directly from realistic scientific data. We demonstrate the efficacy of PDE-LEARN by identifying several PDEs from noisy and limited measurements.
translated by 谷歌翻译
两个不混溶的流体的位移是多孔介质中流体流动的常见问题。这种问题可以作为局部微分方程(PDE)构成通常被称为Buckley-Leverett(B-L)问题。 B-L问题是一种非线性双曲守护法,众所周知,使用传统的数值方法难以解决。在这里,我们使用物理信息的神经网络(Pinns)使用非凸版通量函数来解决前向双曲线B-L问题。本文的贡献是双重的。首先,我们通过将Oleinik熵条件嵌入神经网络残差来提出一种Pinn方法来解决双曲线B-L问题。我们不使用扩散术语(人工粘度)在残留损失中,但我们依靠PDE的强形式。其次,我们使用ADAM优化器与基于残留的自适应细化(RAR)算法,实现不加权的超低损耗。我们的解决方案方法可以精确地捕获冲击前并产生精确的整体解决方案。我们报告了一个2 x 10-2的L2验证误差和1x 10-6的L2损耗。所提出的方法不需要任何额外的正则化或加权损失以获得这种准确的解决方案。
translated by 谷歌翻译
物理知识的神经网络(PINNS)由于能力将物理定律纳入模型,在工程的各个领域都引起了很多关注。但是,对机械和热场之间涉及耦合的工业应用中PINN的评估仍然是一个活跃的研究主题。在这项工作中,我们提出了PINNS在非牛顿流体热机械问题上的应用,该问题通常在橡胶日历过程中考虑。我们证明了PINN在处理逆问题和不良问题时的有效性,这些问题是不切实际的,可以通过经典的数值离散方法解决。我们研究了传感器放置的影响以及无监督点对PINNS性能的分布,即从某些部分数据中推断出隐藏的物理领域的问题。我们还研究了PINN从传感器捕获的测量值中识别未知物理参数的能力。在整个工作中,还考虑了嘈杂测量的效果。本文的结果表明,在识别问题中,PINN可以仅使用传感器上的测量结果成功估算未知参数。在未完全定义边界条件的不足问题中,即使传感器的放置和无监督点的分布对PINNS性能产生了很大的影响,我们表明该算法能够从局部测量中推断出隐藏的物理。
translated by 谷歌翻译
PDE发现显示了揭示复杂物理系统的预测模型,但在测量稀疏和嘈杂时难以困难。我们介绍了一种新方法,用于PDE发现,它使用两个合理的神经网络和原始的稀疏回归算法来识别管理系统响应的隐藏动态。第一网络了解系统响应函数,而第二个网络了解一个驱动系统演进的隐藏PDE。然后,我们使用无参数稀疏回归算法从第二网络中提取隐藏PDE的人类可读形式。我们在名为PDE-读取的开源库中实现了我们的方法。我们的方法成功地识别了热,汉堡和KorteDeg-de Vries方程,具有显着的一致性。我们表明,我们的方法对稀疏性和噪音都是前所未有的强大,因此适用于现实世界的观察数据。
translated by 谷歌翻译
这本数字本书包含在物理模拟的背景下与深度学习相关的一切实际和全面的一切。尽可能多,所有主题都带有Jupyter笔记本的形式的动手代码示例,以便快速入门。除了标准的受监督学习的数据中,我们将看看物理丢失约束,更紧密耦合的学习算法,具有可微分的模拟,以及加强学习和不确定性建模。我们生活在令人兴奋的时期:这些方法具有从根本上改变计算机模拟可以实现的巨大潜力。
translated by 谷歌翻译
我们提出了一种基于具有子域(CENN)的神经网络的保守能量方法,其中允许通过径向基函数(RBF),特定解决方案神经网络和通用神经网络构成满足没有边界惩罚的基本边界条件的可允许功能。与具有子域的强形式Pinn相比,接口处的损耗术语具有较低的阶数。所提出的方法的优点是效率更高,更准确,更小的近双达,而不是具有子域的强形式Pinn。所提出的方法的另一个优点是它可以基于可允许功能的特殊结构适用于复杂的几何形状。为了分析其性能,所提出的方法宫殿用于模拟代表性PDE,这些实施例包括强不连续性,奇异性,复杂边界,非线性和异质问题。此外,在处理异质问题时,它优于其他方法。
translated by 谷歌翻译
部分微分方程(PDE)在研究大量科学和工程问题方面发挥着至关重要的作用。数值求解的非线性和/或高维PDE通常是一个具有挑战性的任务。灵感来自传统有限差分和有限元的方法和机器学习的新兴进步,我们提出了一个名为神经PDE的序列深度学习框架,这允许通过使用双向来自动学习从现有数据的任何时间依赖于现有数据的管理规则LSTM编码器,并预测下一个时间步长数据。我们所提出的框架的一个关键特征是,神经PDE能够同时学习和模拟多尺度变量。我们通过一维PDE的一系列示例测试神经PDE到高维和非线性复杂流体模型。结果表明,神经PDE能够学习初始条件,边界条件和差分运营商,而不知道PDE系统的特定形式。在我们的实验中,神经PDE可以有效地提取20个时期训练内的动态,并产生准确的预测。此外,与在学习PDE中的传统机器学习方法不同,例如CNN和MLP,这需要用于模型精度的巨大参数,神经PDE在所有时间步骤中共享参数,从而显着降低了计算复杂性并导致快速学习算法。
translated by 谷歌翻译
在本文中,我们提出了一种深度学习技术,用于数据驱动的流体介质中波传播的预测。该技术依赖于基于注意力的卷积复发自动编码器网络(AB-CRAN)。为了构建波传播数据的低维表示,我们采用了基于转化的卷积自动编码器。具有基于注意力的长期短期记忆细胞的AB-CRAN体系结构构成了我们的深度神经网络模型,用于游行低维特征的时间。我们评估了针对标准复发性神经网络的拟议的AB-Cran框架,用于波传播的低维学习。为了证明AB-Cran模型的有效性,我们考虑了三个基准问题,即一维线性对流,非线性粘性汉堡方程和二维圣人浅水系统。我们的新型AB-CRAN结构使用基准问题的空间 - 时空数据集,可以准确捕获波幅度,并在长期范围内保留溶液的波特性。与具有长期短期记忆细胞的标准复发性神经网络相比,基于注意力的序列到序列网络增加了预测的时间莫。 Denoising自动编码器进一步减少了预测的平方平方误差,并提高了参数空间中的概括能力。
translated by 谷歌翻译