在本研究中,提出了一种新的,一般和巧妙的激活函数,被称为MDAC,以超越梯度消失和不可分化的存在的麻烦。 MDAC大致继承指数激活函数(如Tanh系列)的属性和分段线性激活函数(例如Relu系列)。具体地,在正区域中,自适应线性结构被设计为响应各种域分布。在负面地区,指数和线性度的组合被认为是征服梯度消失的障碍。此外,通过光滑的近似消除了不可分化的存在。实验表明,MDAC通过简单地改变激活功能,MDAC在六个域数据集中提高了六个域数据集的性能,这表明MDAC的有效性和高尚的革命性。 MDAC优于鲁棒性和泛化的其他普遍激活功能,并且可以在多个域中反映出色的激活性能。
translated by 谷歌翻译
在基于深度学习的中文命名实体识别的任务中,激活函数起到不可替代的作用,它将非线性特性引入神经网络中,从而可以将拟合模型应用于各种任务。然而,工业安全分析文本的信息密度相对较高,信息之间的相关性和相似性很大,这很容易导致模型的高偏差问题和高标准偏差,没有设计特定的激活功能在先前的研究中,传统的激活函数具有梯度消失和负区域的问题,这也导致模型的识别精度不能进一步提高。为了解决这些问题,本文提出了一种新的激活功能AIS。 AIS是应用于工业安全工程中的激活功能,由两种分段非线性功能组成。在正区域中,组合指数函数和二次函数的结构用于缓解偏差和标准偏差的问题,并且添加线性函数以修改它,这使得整个激活函数更顺畅并克服梯度消失的问题。在负区域中,立方函数结构用于解决负面区域问题并加速模型的收敛。基于BERT-BILSTM-CRF的深度学习模型,评估AIS的性能。结果表明,与其他激活功能相比,AIS克服了梯度消失和负面区域的问题,减少了模型的偏差,加快了模型配件,提高了工业实体模型的提取能力。
translated by 谷歌翻译
An activation function has a significant impact on the efficiency and robustness of the neural networks. As an alternative, we evolved a cutting-edge non-monotonic activation function, Negative Stimulated Hybrid Activation Function (Nish). It acts as a Rectified Linear Unit (ReLU) function for the positive region and a sinus-sigmoidal function for the negative region. In other words, it incorporates a sigmoid and a sine function and gaining new dynamics over classical ReLU. We analyzed the consistency of the Nish for different combinations of essential networks and most common activation functions using on several most popular benchmarks. From the experimental results, we reported that the accuracy rates achieved by the Nish is slightly better than compared to the Mish in classification.
translated by 谷歌翻译
受生物神经元的启发,激活功能在许多现实世界中常用的任何人工神经网络的学习过程中起着重要作用。文献中已经提出了各种激活功能,用于分类和回归任务。在这项工作中,我们调查了过去已经使用的激活功能以及当前的最新功能。特别是,我们介绍了多年来激活功能的各种发展以及这些激活功能的优势以及缺点或局限性。我们还讨论了经典(固定)激活功能,包括整流器单元和自适应激活功能。除了基于表征的激活函数的分类法外,还提出了基于应用的激活函数的分类法。为此,对MNIST,CIFAR-10和CIFAR-100等分类数据集进行了各种固定和自适应激活函数的系统比较。近年来,已经出现了一个具有物理信息的机器学习框架,以解决与科学计算有关的问题。为此,我们还讨论了在物理知识的机器学习框架中使用的激活功能的各种要求。此外,使用Tensorflow,Pytorch和Jax等各种机器学习库之间进行了不同的固定和自适应激活函数进行各种比较。
translated by 谷歌翻译
激活功能在深神网络中引入非线性。这种非线性有助于神经网络从数据集中更快,有效地学习。在深度学习中,基于类型问题陈述开发和使用许多激活功能。Relu的变体,Swish和Mish是Goto激活功能。Mish功能被认为比Swish相似甚至更好,并且比Relu更好。在本文中,我们提出了一个名为APTX的激活函数,其行为与Mish相似,但需要较少的数学操作来计算。APTX的计算要求较小会加快模型培训的速度,从而减少了深度学习模型的硬件需求。
translated by 谷歌翻译
近年来,神经网络已显示出巨大的增长,以解决许多问题。已经引入了各种类型的神经网络来处理不同类型的问题。但是,任何神经网络的主要目标是使用层层次结构将非线性可分离的输入数据转换为更线性可分离的抽象特征。这些层是线性和非线性函数的组合。最流行和常见的非线性层是激活功能(AFS),例如Logistic Sigmoid,Tanh,Relu,Elu,Swish和Mish。在本文中,在神经网络中为AFS提供了全面的概述和调查,以进行深度学习。涵盖了不同类别的AFS,例如Logistic Sigmoid和Tanh,基于RELU,基于ELU和基于学习的AFS。还指出了AFS的几种特征,例如输出范围,单调性和平滑度。在具有不同类型的数据的不同网络的18个最先进的AF中,还进行了性能比较。提出了AFS的见解,以使研究人员受益于进一步的研究和从业者在不同选择中进行选择。用于实验比较的代码发布于:\ url {https://github.com/shivram1987/activationfunctions}。
translated by 谷歌翻译
为了增强神经网络的非线性并提高输入和响应变量之间的映射能力,激活函数在数据中扮演更复杂的关系和模式的重要作用。在这项工作中,提出了一种新颖的方法,仅通过向传统的激活功能(如Sigmoid,TanH和Relu)添加很少的参数来自适应地自定义激活函数。为了验证所提出的方法的有效性,提出了关于加速收敛性和提高性能的一些理论和实验分析,并基于各种网络模型进行一系列实验(例如AlexNet,Vggnet,Googlenet,Reset和DenSenet)和各种数据集(如Cifar10,CiFar100,MiniimAgenet,Pascal VOC和Coco)。为了进一步验证各种优化策略和使用场景中的有效性和适用性,还在不同的优化策略(如SGD,势头,adagrad,Adadelta和AdaDelta和Adam)之间实施了一些比较实验以及与分类和检测等不同的识别任务。结果表明,提出的方法非常简单,但在收敛速度,精度和泛化方面具有显着性能,它可以超越像雷丝和自适应功能等其他流行的方法,如在整体性能方面几乎所有实验。该代码公开可在https://github.com/huhaigen/aptove-custivation-操作系统上使用。该包装包括所提出的三种自适应激活功能,可用于可重复性目的。
translated by 谷歌翻译
本文提出了一种新的和富有激光激活方法,被称为FPLUS,其利用具有形式的极性标志的数学功率函数。它是通过常见的逆转操作来启发,同时赋予仿生学的直观含义。制剂在某些先前知识和预期特性的条件下理论上得出,然后通过使用典型的基准数据集通过一系列实验验证其可行性,其结果表明我们的方法在许多激活功能中拥有卓越的竞争力,以及兼容稳定性许多CNN架构。此外,我们将呈现给更广泛类型的功能延伸到称为PFPlus的函数,具有两个可以固定的或学习的参数,以便增加其表现力的容量,并且相同的测试结果验证了这种改进。
translated by 谷歌翻译
作为一种强大的建模方法,分段线性神经网络(PWLNNS)已在各个领域都被证明是成功的,最近在深度学习中。为了应用PWLNN方法,长期以来一直研究了表示和学习。 1977年,规范表示率先通过增量设计学到了浅层PWLNN的作品,但禁止使用大规模数据的应用。 2010年,纠正的线性单元(RELU)提倡在深度学习中PWLNN的患病率。从那以后,PWLNNS已成功地应用于广泛的任务并实现了有利的表现。在本引物中,我们通过将作品分组为浅网络和深层网络来系统地介绍PWLNNS的方法。首先,不同的PWLNN表示模型是由详细示例构建的。使用PWLNNS,提出了学习数据的学习算法的演变,并且基本理论分析遵循深入的理解。然后,将代表性应用与讨论和前景一起引入。
translated by 谷歌翻译
神经体系结构搜索(NAS)促进了神经体系结构的自动发现,从而实现了图像识别的最新精度。尽管NAS取得了进展,但到目前为止,NAS对理论保证几乎没有关注。在这项工作中,我们研究了NAS在统一框架下的概括属性,从而实现(深)层跳过连接搜索和激活功能搜索。为此,我们从搜索空间(包括混合的激活功能,完全连接和残留的神经网络)的(包括)有限宽度方向上得出了神经切线核的最小特征值的下(和上)边界。由于在统一框架下的各种体系结构和激活功能的耦合,我们的分析是不平凡的。然后,我们利用特征值边界在随机梯度下降训练中建立NAS的概括误差界。重要的是,我们从理论上和实验上展示了衍生结果如何指导NAS,即使在没有培训的情况下,即使在没有培训的情况下,也可以根据我们的理论进行无训练的算法。因此,我们的数值验证阐明了NAS计算有效方法的设计。
translated by 谷歌翻译
神经网络已广泛应用于垃圾邮件和网络钓鱼检测,入侵预防和恶意软件检测等安全应用程序。但是,这种黑盒方法通常在应用中具有不确定性和不良的解释性。此外,神经网络本身通常容易受到对抗攻击的影响。由于这些原因,人们对可信赖和严格的方法有很高的需求来验证神经网络模型的鲁棒性。对抗性的鲁棒性在处理恶意操纵输入时涉及神经网络的可靠性,是安全和机器学习中最热门的主题之一。在这项工作中,我们在神经网络的对抗性鲁棒性验证中调查了现有文献,并在机器学习,安全和软件工程领域收集了39项多元化研究工作。我们系统地分析了它们的方法,包括如何制定鲁棒性,使用哪种验证技术以及每种技术的优势和局限性。我们从正式验证的角度提供分类学,以全面理解该主题。我们根据财产规范,减少问题和推理策略对现有技术进行分类。我们还展示了使用样本模型在现有研究中应用的代表性技术。最后,我们讨论了未来研究的开放问题。
translated by 谷歌翻译
深度神经网络的鲁棒性对于现代AI支持系统至关重要,应正式验证。在广泛的应用中采用了类似乙状结肠的神经网络。由于它们的非线性,通常会过度评估乙状结肠样激活功能,以进行有效的验证,这不可避免地引入了不精确度。已大量的努力致力于找到所谓的更紧密的近似值,以获得更精确的验证结果。但是,现有的紧密定义是启发式的,缺乏理论基础。我们对现有神经元的紧密表征进行了彻底的经验分析,并揭示它们仅在特定的神经网络上是优越的。然后,我们将网络紧密度的概念介绍为统一的紧密度定义,并表明计算网络紧密度是一个复杂的非convex优化问题。我们通过两个有效的,最紧密的近似值从不同的角度绕过复杂性。结果表明,我们在艺术状态下的方法实现了有希望的表现:(i)达到高达251.28%的改善,以提高认证的较低鲁棒性界限; (ii)在卷积网络上表现出更为精确的验证结果。
translated by 谷歌翻译
危险和可操作性分析(HAZOP)是工业安全工程中卓越的代表,HAZOP报告包含了工业安全知识(ISK)的巨大仓库。为了解锁ISK的价值并提高HAZOP效率,提出了一种新颖的知识图表开发工业安全(ISKG)。首先,根据国际标准IEC61882,我们使用自上而下的方法将HAZOP解体到具有多级信息的危险事件,该事件构建本体库。其次,采用自下而上的方法和自然语言处理技术,我们提出了一种基于杂交深度学习的Hainex的巧妙信息提取模型。简而言之,Hainex由以下模块组成:改进的工业双向编码器,用于提取语义特征,用于获得上下文表示的双向短期存储网络,以及基于具有改进的工业损失功能的条件随机场的解码器。最后,将构造的HAZOP三元组导入图表数据库。实验表明,Hainex先进,可靠。我们采取间接煤液化过程作为发展ISKG的案例研究。 ISKG导向应用,如ISK可视化,ISK检索,辅助斑纹和危险传播推理,可以挖掘ISK的潜力,提高HAZOP效率,这在加强工业安全方面具有重要意义。更重要的是,基于ISKG的问答系统可以应用于教学指导,以推广安全知识,并加强对非专业人士的预防意识。
translated by 谷歌翻译
这项调查的目的是介绍对深神经网络的近似特性的解释性回顾。具体而言,我们旨在了解深神经网络如何以及为什么要优于其他经典线性和非线性近似方法。这项调查包括三章。在第1章中,我们回顾了深层网络及其组成非线性结构的关键思想和概念。我们通过在解决回归和分类问题时将其作为优化问题来形式化神经网络问题。我们简要讨论用于解决优化问题的随机梯度下降算法以及用于解决优化问题的后传播公式,并解决了与神经网络性能相关的一些问题,包括选择激活功能,成本功能,过度适应问题和正则化。在第2章中,我们将重点转移到神经网络的近似理论上。我们首先介绍多项式近似中的密度概念,尤其是研究实现连续函数的Stone-WeierStrass定理。然后,在线性近似的框架内,我们回顾了馈电网络的密度和收敛速率的一些经典结果,然后在近似Sobolev函数中进行有关深网络复杂性的最新发展。在第3章中,利用非线性近似理论,我们进一步详细介绍了深度和近似网络与其他经典非线性近似方法相比的近似优势。
translated by 谷歌翻译
非线性激活功能赋予神经网络,具有学习复杂的高维功能的能力。激活功能的选择是一个重要的超参数,确定深神经网络的性能。它显着影响梯度流动,训练速度,最终是神经网络的表示力。像Sigmoids这样的饱和活化功能遭受消失的梯度问题,不能用于深神经网络。通用近似定理保证,Sigmoids和Relu的多层网络可以学习任意复杂的连续功能,以任何准确性。尽管多层神经网络来学习任意复杂的激活功能,但传统神经网络中的每个神经元(使用SIGMOIDS和Relu类似的网络)具有单个超平面作为其决策边界,因此进行线性分类。因此,具有S形,Relu,Swish和Mish激活功能的单个神经元不能学习XOR函数。最近的研究已经发现了两层和三个人皮层中的生物神经元,具有摆动激活功能并且能够单独学习XOR功能。生物神经元中振荡激活功能的存在可能部分解释生物和人工神经网络之间的性能差距。本文提出了4个新的振荡激活功能,使单个神经元能够在没有手动功能工程的情况下学习XOR功能。本文探讨了使用振荡激活功能来解决较少神经元并减少培训时间的分类问题的可能性。
translated by 谷歌翻译
神经网络的通用近似特性(UAP)对于深度学习至关重要,众所周知,广泛的神经网络是$ l^p $ norm和连续/统一规范中连续功能的通用近似概要。但是,确切的最小宽度,$ w _ {\ min} $,尚未对UAP进行彻底研究。最近,使用解码器模式编码器方案,\ citet {park2021mimine}发现$ w _ {\ min} = \ max(d_x+1,d_y)$ for $ l^p $ up of relu Networks和the $ c $ - relu+step网络,其中$ d_x,d_y $分别是输入和输出尺寸。在本文中,我们考虑具有任意激活功能的神经网络。我们证明,紧凑型域上功能的$ c $ uap和$ l^p $ -uap共享最小宽度的通用下限;也就是说,$ w^*_ {\ min} = \ max(d_x,d_y)$。特别是,只要输入或输出尺寸大于一个,就可以通过泄漏的relu网络来实现临界宽度,$ w^*_ {\ min} $,可以通过泄漏的relu网络来实现。我们的构建基于神经普通微分方程的近似能力以及通过神经网络近似流量图的能力。还讨论了非单极管或不连续的激活函数情况和一维情况。
translated by 谷歌翻译
激活功能对于神经网络引入非线性至关重要。许多经验实验已经验证了各种激活功能,但有关激活功能的理论研究不足。在这项工作中,我们研究了激活功能对梯度方差的影响,并提出了一种使激活函数正常化的方法,以使所有层的梯度方差保持相同,以便神经网络可以实现更好的收敛性。首先,我们补充了先前的工作,以分析梯度方差的分析,在这种梯度的方差中,激活功能的影响仅在理想化的初始状态下,几乎不能保存在训练过程中,并获得了良好激活功能应尽可能满足的属性。其次,我们提供了一种将激活功能归一化并证明其对普遍激活功能的有效性的方法。通过观察实验,我们发现收敛速度与我们在前一部分中得出的属性大致相关。我们针对共同的激活函数进行了归一化激活函数的实验。结果表明,我们的方法始终优于其非标准化对应物。例如,就TOP-1的准确性而言,用CIFAR-100的RESNET50在RESNET50上归一化的Swish swilla swish swish swish。我们的方法通过简单地在完全连接的网络和残留网络中替换其归一化功能来改善性能。
translated by 谷歌翻译
物理信息的神经网络(PINN)是神经网络(NNS),它们作为神经网络本身的组成部分编码模型方程,例如部分微分方程(PDE)。如今,PINN是用于求解PDE,分数方程,积分分化方程和随机PDE的。这种新颖的方法已成为一个多任务学习框架,在该框架中,NN必须在减少PDE残差的同时拟合观察到的数据。本文对PINNS的文献进行了全面的综述:虽然该研究的主要目标是表征这些网络及其相关的优势和缺点。该综述还试图将出版物纳入更广泛的基于搭配的物理知识的神经网络,这些神经网络构成了香草·皮恩(Vanilla Pinn)以及许多其他变体,例如物理受限的神经网络(PCNN),各种HP-VPINN,变量HP-VPINN,VPINN,VPINN,变体。和保守的Pinn(CPINN)。该研究表明,大多数研究都集中在通过不同的激活功能,梯度优化技术,神经网络结构和损耗功能结构来定制PINN。尽管使用PINN的应用范围广泛,但通过证明其在某些情况下比有限元方法(FEM)等经典数值技术更可行的能力,但仍有可能的进步,最著名的是尚未解决的理论问题。
translated by 谷歌翻译
为了对线性不可分离的数据进行分类,神经元通常被组织成具有至少一个隐藏层的多层神经网络。灵感来自最近神经科学的发现,我们提出了一种新的神经元模型以及一种新的激活函数,可以使用单个神经元来学习非线性决策边界。我们表明标准神经元随后是新颖的顶端枝晶激活(ADA)可以使用100 \%的精度来学习XOR逻辑函数。此外,我们在计算机视觉,信号处理和自然语言处理中进行五个基准数据集进行实验,即摩洛哥,utkface,crema-d,时尚mnist和微小的想象成,表明ADA和泄漏的ADA功能提供了卓越的结果用于各种神经网络架构的整流线性单元(Relu),泄漏的Relu,RBF和嗖嗖声,例如单隐层或两个隐藏层的多层的Perceptrons(MLPS)和卷积神经网络(CNNS),如LENET,VGG,RESET和字符级CNN。当我们使用具有顶端树突激活(Pynada)的金字塔神经元改变神经元的标准模型时,我们获得进一步的性能改进。我们的代码可用于:https://github.com/raduionescu/pynada。
translated by 谷歌翻译
本文提出了一种新的可达性分析工具,用于计算给定输入不确定性下的前馈神经网络的输出集的间隔过度近似。所提出的方法适应神经网络的现有混合单调性方法,用于可动力分析的动态系统,并将其应用于给定神经网络内的所有可能的部分网络。这确保了所获得的结果的交叉点是可以使用混合单调性获得的每层输出的最紧密的间隔过度近似。与文献中的其他工具相比,专注于小类分段 - 仿射或单调激活功能,我们方法的主要优势是其普遍性,它可以处理具有任何嘴唇智能连续激活功能的神经网络。此外,所提出的框架的简单性允许用户通过简单地提供函数,衍生和全局极值以及衍生物的相应参数来非常容易地添加未实现的激活功能。我们的算法经过测试,并将其与1000个随机生成的神经网络上的五个基于间隔的工具进行了比较,用于四个激活功能(Relu,Tanh,Elu,Silu)。我们表明我们的工具总是优于间隔绑定的传播方法,并且我们获得比Reluval,神经化,Verinet和Crown(适用于案件的时)更严格的输出界限。
translated by 谷歌翻译