深度卷积神经网络(CNNS)广泛地被认为是最先进的通用端到端图像分类系统。然而,当训练数据受到限制时,它们众所周知,他们需要渲染方法计算得昂贵并且并不总是有效的数据增强策略。而不是使用数据增强策略来编码在机器学习中通常在机器学习中进行的修正,而我们建议通过利用氡累积分配变换(R-CDT)的某些数学属性来数学上增强切片 - Wasserstein空间中最近的子空间分类模型。最近引入的图像变换。我们证明,对于特定类型的学习问题,我们的数学解决方案在分类精度和计算复杂性方面具有深度CNN的数据增强,并且在有限的训练数据设置下特别有效。该方法简单,有效,计算高效,不迭代,不需要调整参数。实现我们的方法的Python代码可在https://github.com/rohdelab/mathemation_augmentation中获得。我们的方法是作为软件包Pytranskit的一部分,可在https://github.com/rohdelab/pytranskit中获得。
translated by 谷歌翻译
本文使用签名的累积分布变换(SCDT)提出了一种新的端到端信号分类方法。我们采用基于运输的生成模型来定义分类问题。然后,我们利用SCDT的数学属性来使问题更容易在变换域中,并使用SCDT域中的最接近局部子空间(NLS)搜索算法求解未知样本的类。实验表明,所提出的方法提供了高精度的分类结果,同时又有数据效率,对分布样本的强大稳定性以及相对于深度学习端到端分类方法的计算复杂性而具有竞争力。在Python语言中的实现将其作为软件包Pytranskit(https://github.com/rohdelab/pytranskit)的一部分集成。
translated by 谷歌翻译
基于运输的指标和相关嵌入(转换)最近已用于模拟存在非线性结构或变化的信号类。在本文中,我们研究了具有广义的瓦斯汀度量的时间序列数据的测量特性,以及与它们在嵌入空间中签名的累积分布变换有关的几何形状。此外,我们展示了如何理解这种几何特征可以为某些时间序列分类器提供可解释性,并成为更强大的分类器的灵感。
translated by 谷歌翻译
图像表示是计算机视觉和模式识别中的一个重要主题。它在一系列应用中扮演了了解视觉内容的基本作用。据报道,基于矩的图像表示在满足其由于其有益的数学特性而满足语义描述的核心条件,特别是几何不变性和独立性。本文介绍了对图像表示的正交矩的全面调查,涵盖了快速/准确计算,鲁棒性/不变性优化,定义扩展和应用程序的最新进步。我们还为各种广泛使用的正交瞬间创建一个软件包,并在同一基地中评估此类方法。提出的理论分析,软件实施和评估结果可以支持社区,特别是在开发新颖的技术和促进现实世界的应用方面。
translated by 谷歌翻译
与特殊线性组和嵌入谎言代数结构具有基本关系。尽管谎言代数表示优雅,但很少有研究人员在同构估计与代数表达之间建立了联系。在本文中,我们提出了扭曲的卷积网络(WCN),以有效地估计SL(3)组和SL(3)代数的分组转换。为此,SL(3)组中的六个换向子组组成以形成一个跨摄影转换。对于每个子组,提出了一个翘曲函数,以将Lie代数结构桥接到其在断层扫描中的相应参数上。通过利用扭曲的卷积,同构估计得出了几个简单的伪翻译回归。通过沿着谎言拓扑行走,我们提出的WCN能够学习对构造转换不变的功能。它可以很容易地插入其他基于CNN的方法中。对POT基准和MNIST-PROJ数据集进行了广泛的实验表明,我们提出的方法对同型估计和分类都有效。
translated by 谷歌翻译
In this paper, we propose Wasserstein Isometric Mapping (Wassmap), a nonlinear dimensionality reduction technique that provides solutions to some drawbacks in existing global nonlinear dimensionality reduction algorithms in imaging applications. Wassmap represents images via probability measures in Wasserstein space, then uses pairwise Wasserstein distances between the associated measures to produce a low-dimensional, approximately isometric embedding. We show that the algorithm is able to exactly recover parameters of some image manifolds including those generated by translations or dilations of a fixed generating measure. Additionally, we show that a discrete version of the algorithm retrieves parameters from manifolds generated from discrete measures by providing a theoretical bridge to transfer recovery results from functional data to discrete data. Testing of the proposed algorithms on various image data manifolds show that Wassmap yields good embeddings compared with other global and local techniques.
translated by 谷歌翻译
从早期图像处理到现代计算成像,成功的模型和算法都依赖于自然信号的基本属性:对称性。在这里,对称是指信号集的不变性属性,例如翻译,旋转或缩放等转换。对称性也可以以模棱两可的形式纳入深度神经网络中,从而可以进行更多的数据效率学习。虽然近年来端到端的图像分类网络的设计方面取得了重要进展,但计算成像引入了对等效网络解决方案的独特挑战,因为我们通常只通过一些嘈杂的不良反向操作员观察图像,可能不是均等的。我们回顾了现象成像的新兴领域,并展示它如何提供改进的概括和新成像机会。在此过程中,我们展示了采集物理学与小组动作之间的相互作用,以及与迭代重建,盲目的压缩感应和自我监督学习之间的联系。
translated by 谷歌翻译
自动目标识别(ATR)算法将给定的合成孔径雷达(SAR)图像分类为已知的目标类之一,使用一组可用于每个类的训练图像。最近,如果有丰富的训练数据可用,在类中均匀地采样及其姿势,则已经显示出学习方法可以实现最先进的分类精度。在本文中,我们考虑了ATR的任务,其中一组培训图像有限。我们提出了一种数据增强方法,以结合域知识并提高数据密集型学习算法的概括能力,例如卷积神经网络(CNN)。提出的数据增强方法采用有限的持久性稀疏建模方法,利用广角合成孔径雷达(SAR)图像的普遍观察到的特征。具体而言,我们利用空间结构域中的散射中心的稀疏性以及方位角域中散射系数的平滑结构,以解决过度分析模型拟合的缺陷问题。使用此估计的模型,我们合成了给定数据中没有可用的姿势和子像素翻译的新图像来增强CNN的培训数据。实验结果表明,对于训练数据饥饿的区域,提出的方法为结果ATR算法的泛化性能提供了显着增长。
translated by 谷歌翻译
适应数据分布的结构(例如对称性和转型Imarerces)是机器学习中的重要挑战。通过架构设计或通过增强数据集,可以内在学习过程中内置Inhormces。两者都需要先验的了解对称性的确切性质。缺乏这种知识,从业者求助于昂贵且耗时的调整。为了解决这个问题,我们提出了一种新的方法来学习增强变换的分布,以新的\ emph {转换风险最小化}(trm)框架。除了预测模型之外,我们还优化了从假说空间中选择的转换。作为算法框架,我们的TRM方法是(1)有效(共同学习增强和模型,以\ emph {单训练环}),(2)模块化(使用\ emph {任何训练算法),以及(3)一般(处理\ \ ich {离散和连续}增强)。理论上与标准风险最小化的TRM比较,并在其泛化误差上给出PAC-Bayes上限。我们建议通过块组成的新参数化优化富裕的增强空间,导致新的\ EMPH {随机成分增强学习}(SCALE)算法。我们在CIFAR10 / 100,SVHN上使用先前的方法(快速自身自动化和武术器)进行实际比较规模。此外,我们表明规模可以在数据分布中正确地学习某些对称性(恢复旋转Mnist上的旋转),并且还可以改善学习模型的校准。
translated by 谷歌翻译
Training generative adversarial networks (GAN) using too little data typically leads to discriminator overfitting, causing training to diverge. We propose an adaptive discriminator augmentation mechanism that significantly stabilizes training in limited data regimes. The approach does not require changes to loss functions or network architectures, and is applicable both when training from scratch and when fine-tuning an existing GAN on another dataset. We demonstrate, on several datasets, that good results are now possible using only a few thousand training images, often matching StyleGAN2 results with an order of magnitude fewer images. We expect this to open up new application domains for GANs. We also find that the widely used CIFAR-10 is, in fact, a limited data benchmark, and improve the record FID from 5.59 to 2.42.
translated by 谷歌翻译
神经网络在医疗图像分割任务上的成功通常依赖于大型标记的数据集用于模型培训。但是,由于数据共享和隐私问题,获取和手动标记大型医疗图像集是资源密集的,昂贵的,有时是不切实际的。为了应对这一挑战,我们提出了一个通用的对抗数据增强框架Advchain,旨在提高培训数据对医疗图像分割任务的多样性和有效性。 AdvChain通过动态数据增强来增强数据,从而产生随机链接的光线像和几何转换,以类似于现实而又具有挑战性的成像变化以扩展训练数据。通过在培训期间共同优化数据增强模型和分割网络,可以生成具有挑战性的示例,以增强下游任务的网络可推广性。所提出的对抗数据增强不依赖生成网络,可以用作通用分割网络中的插件模块。它在计算上是有效的,适用于低声监督和半监督学习。我们在两个MR图像分割任务上分析和评估该方法:心脏分割和前列腺分割具有有限的标记数据。结果表明,所提出的方法可以减轻对标记数据的需求,同时提高模型泛化能力,表明其在医学成像应用中的实际价值。
translated by 谷歌翻译
建模生物软组织是由于材料异质性而部分复杂的。微观结构模式在定义这些组织的机械行为方面起着主要作用,既具有挑战性,又难以模拟。最近,基于机器学习的方法来预测异质材料的机械行为,使得更彻底地探索与异质材料块相关的大量输入参数空间。具体而言,我们可以训练机器学习(ML)模型,以近似于计算上昂贵的异质材料模拟,其中ML模型在模拟的数据集上进行了训练,该模拟捕获了感兴趣的材料中存在的空间异质性范围。但是,在更广泛地将这些技术应用于生物组织时,存在一个主要的局限性:相关的微观结构模式既具有挑战性又难以分析。因此,可用于表征正在研究的输入域的有用示例的数量有限。在这项工作中,我们研究了基于ML的生成模型以及程序方法的功效,作为增强有限输入模式数据集的工具。我们发现,具有自适应判别器增强器的基于样式的生成对抗网络能够成功利用1,000个示例模式来创建最真实的生成模式。通常,与真实模式有足够相似之处的不同生成模式可以用作有限元模拟的输入,以有意义地增强训练数据集。为了实现这一方法论贡献,我们创建了一个基于Cahn-Hilliard模式的有限元分析模拟的开放访问数据集。我们预计未来的研究人员将能够利用此数据集并基于此处介绍的工作。
translated by 谷歌翻译
许多注册方法都存在着早期工作,重点是基于优化的图像对方法。最近的工作着重于深度注册网络,以预测空间转换。在这两种情况下,通常使用的非参数登记模型,该模型估计转换功能而不是低维转换参数,都需要选择合适的正常器(鼓励平滑转换)及其参数。这使得模型难以调整,并将变形限制为所选正规器允许的变形空间。尽管存在不正常转换的光流的深度学习模型,而是完全依赖于数据,这些模型可能不会产生对医学图像注册期望的差异转换。因此,在这项工作中,我们在无监督的图标深度学习登记方法上开发了Gradicon,该方法仅使用逆矛盾进行正则化。但是,与图标相反,我们证明并从经验上验证,使用梯度反矛盾损失不仅显着改善了收敛性,而且还会导致所得转换图的类似隐式正则化。磁共振(MR)膝关节图像和计算机断层扫描(CT)肺图像的合成实验和实验表明Gradicon的表现出色。我们在保留简单的注册公式的同时,实现了最新的(SOTA)精度,这实际上很重要。
translated by 谷歌翻译
Recent years have witnessed a growth in mathematics for deep learning--which seeks a deeper understanding of the concepts of deep learning with mathematics, and explores how to make it more robust--and deep learning for mathematics, where deep learning algorithms are used to solve problems in mathematics. The latter has popularised the field of scientific machine learning where deep learning is applied to problems in scientific computing. Specifically, more and more neural network architectures have been developed to solve specific classes of partial differential equations (PDEs). Such methods exploit properties that are inherent to PDEs and thus solve the PDEs better than classical feed-forward neural networks, recurrent neural networks, and convolutional neural networks. This has had a great impact in the area of mathematical modeling where parametric PDEs are widely used to model most natural and physical processes arising in science and engineering, In this work, we review such methods and extend them for parametric studies as well as for solving the related inverse problems. We equally proceed to show their relevance in some industrial applications.
translated by 谷歌翻译
机器学习模型通常会遇到与训练分布不同的样本。无法识别分布(OOD)样本,因此将该样本分配给课堂标签会显着损害模​​型的可靠性。由于其对在开放世界中的安全部署模型的重要性,该问题引起了重大关注。由于对所有可能的未知分布进行建模的棘手性,检测OOD样品是具有挑战性的。迄今为止,一些研究领域解决了检测陌生样本的问题,包括异常检测,新颖性检测,一级学习,开放式识别识别和分布外检测。尽管有相似和共同的概念,但分别分布,开放式检测和异常检测已被独立研究。因此,这些研究途径尚未交叉授粉,创造了研究障碍。尽管某些调查打算概述这些方法,但它们似乎仅关注特定领域,而无需检查不同领域之间的关系。这项调查旨在在确定其共同点的同时,对各个领域的众多著名作品进行跨域和全面的审查。研究人员可以从不同领域的研究进展概述中受益,并协同发展未来的方法。此外,据我们所知,虽然进行异常检测或单级学习进行了调查,但没有关于分布外检测的全面或最新的调查,我们的调查可广泛涵盖。最后,有了统一的跨域视角,我们讨论并阐明了未来的研究线,打算将这些领域更加紧密地融为一体。
translated by 谷歌翻译
设计对某些数据转换不变的学习系统对于机器学习至关重要。从业人员通常可以通过选择网络体系结构(例如使用卷积进行翻译或使用数据扩展。但是,在网络中实现真正的不变性可能很困难,并且并不总是知道数据不变。学习数据增强策略的最新方法需要持有数据,并且基于双重优化问题,这些问题很复杂,可以解决并且通常在计算上要求。在这项工作中,我们仅从培训数据中研究了学习不断增长的新方法。使用直接在网络中构建的可学习的增强层,我们证明我们的方法非常通用。它可以结合任何类型的可区分扩展,并应用于计算机视觉之外的广泛学习问题。我们提供的经验证据表明,基于二线优化的现代自动数据增强技术比现代自动数据增强技术更容易,更快,同时取得了可比的结果。实验表明,虽然通过自动数据增强传递到模型的不传导受到模型表达性的限制,但我们方法所产生的不变性对设计不敏感。
translated by 谷歌翻译
手写数字识别(HDR)是光学特征识别(OCR)领域中最具挑战性的任务之一。不管语言如何,HDR都存在一些固有的挑战,这主要是由于个人跨个人的写作风格的变化,编写媒介和环境的变化,无法在反复编写任何数字等时保持相同的笔触。除此之外,特定语言数字的结构复杂性可能会导致HDR的模棱两可。多年来,研究人员开发了许多离线和在线HDR管道,其中不同的图像处理技术与传统的机器学习(ML)基于基于的和/或基于深度学习(DL)的体系结构相结合。尽管文献中存在有关HDR的广泛审查研究的证据,例如:英语,阿拉伯语,印度,法尔西,中文等,但几乎没有对孟加拉人HDR(BHDR)的调查,这缺乏对孟加拉语HDR(BHDR)的研究,而这些调查缺乏对孟加拉语HDR(BHDR)的研究。挑战,基础识别过程以及可能的未来方向。在本文中,已经分析了孟加拉语手写数字的特征和固有的歧义,以及二十年来最先进的数据集的全面见解和离线BHDR的方法。此外,还详细讨论了一些涉及BHDR的现实应用特定研究。本文还将作为对离线BHDR背后科学感兴趣的研究人员的汇编,煽动了对相关研究的新途径的探索,这可能会进一步导致在不同应用领域对孟加拉语手写数字进行更好的离线认识。
translated by 谷歌翻译
The success of machine learning algorithms generally depends on data representation, and we hypothesize that this is because different representations can entangle and hide more or less the different explanatory factors of variation behind the data. Although specific domain knowledge can be used to help design representations, learning with generic priors can also be used, and the quest for AI is motivating the design of more powerful representation-learning algorithms implementing such priors. This paper reviews recent work in the area of unsupervised feature learning and deep learning, covering advances in probabilistic models, auto-encoders, manifold learning, and deep networks. This motivates longer-term unanswered questions about the appropriate objectives for learning good representations, for computing representations (i.e., inference), and the geometrical connections between representation learning, density estimation and manifold learning.
translated by 谷歌翻译
现代计算机视觉系统中使用的深度神经网络需要巨大的图像数据集来训练它们。这些仔细策划的数据集通常具有百万或更多的图像,跨越千分之一或更多的不同类别。创建和策划此类数据集的过程是一个巨大的承诺,要求广泛的努力和标签费用,并需要仔细导航技术和社会问题,如标签准确性,版权所有权和内容偏见。如果我们有一种方法来利用大型图像数据集的力量,但有很少或没有主要问题和目前面临的关注点?本文扩展了KataOka et的最近工作。 al。 (2020),提出基于动态生成的分形图像的改进的预训练数据集。大规模图像数据集的挑战性问题成为分形预训练的优雅点:完美的标签精度为零成本;无需存储/传输大图像档案;没有隐私/人口统计偏见/不适当内容的疑虑,因为没有人类被描绘;无限的图像供应和多样性;图像是空闲/开源。也许令人惊讶的是,避免这些困难只会在表现中征收小额罚款。利用新建的预训练任务 - 多实例预测 - 我们的实验表明,微调使用分形预先培训的网络培训的网络预先培训网络的准确性的92.7-98.1%。
translated by 谷歌翻译
空间变压器网络(STNS)估计图像变换,可以通过“放大”图像中的相关区域来改善下游任务。但是,STN很难训练,并且对转型的错误预测敏感。为了避免这些局限性,我们提出了一种概率扩展,该扩展估计了随机转化而不是确定性的转换。边缘化转换使我们能够以多个姿势考虑每个图像,这使本地化任务变得更加容易,并且培训更加健壮。作为另一个好处,随机转换充当了局部,学习的数据增强,可改善下游任务。我们在标准成像基准和充满挑战的现实数据集中显示,这两种属性可改善分类性能,鲁棒性和模型校准。我们进一步证明,该方法通过改善时间序列数据的模型性能来推广到非视觉域。
translated by 谷歌翻译