Approximation of entropies of various types using machine learning (ML) regression methods are shown for the first time. The ML models presented in this study define the complexity of the short time series by approximating dissimilar entropy techniques such as Singular value decomposition entropy (SvdEn), Permutation entropy (PermEn), Sample entropy (SampEn) and Neural Network entropy (NNetEn) and their 2D analogies. A new method for calculating SvdEn2D, PermEn2D and SampEn2D for 2D images was tested using the technique of circular kernels. Training and testing datasets on the basis of Sentinel-2 images are presented (two training images and one hundred and ninety-eight testing images). The results of entropy approximation are demonstrated using the example of calculating the 2D entropy of Sentinel-2 images and R^2 metric evaluation. The applicability of the method for the short time series with a length from N = 5 to N = 113 elements is shown. A tendency for the R^2 metric to decrease with an increase in the length of the time series was found. For SvdEn entropy, the regression accuracy is R^2 > 0.99 for N = 5 and R^2 > 0.82 for N = 113. The best metrics were observed for the ML_SvdEn2D and ML_NNetEn2D models. The results of the study can be used for fundamental research of entropy approximations of various types using ML regression, as well as for accelerating entropy calculations in remote sensing. The versatility of the model is shown on a synthetic chaotic time series using Planck map and logistic map.
translated by 谷歌翻译
测量使用熵的时间序列的可预测性和复杂性是必不可少的工具去签名和控制非线性系统。然而,现有方法具有与熵对方法参数的强大依赖性相关的一些缺点。为了克服这些困难,本研究提出了一种使用LOGNNET神经网络模型估算时间序列熵的新方法。根据我们的算法,LognNet储库矩阵用时间序列元素填充。来自MNIST-10数据库的图像分类的准确性被认为是熵测量并由NNetEN表示。熵计算的新颖性是时间序列参与混合RES-ERVOIR中的输入信息。时间序列中的更大复杂性导致更高的分类精度和更高的Nneten值。我们介绍了一个新的时序序列特征,称为时间序列学习惯性,确定神经网络的学习率。该方法的鲁棒性和效率在混沌,周期性,随机,二进制和恒定时间序列上验证。 NNetEN与其他熵估计方法的比较表明,我们的方法更加稳健,准确,可广泛用于实践中。
translated by 谷歌翻译
We present a machine-learning framework to accurately characterize morphologies of Active Galactic Nucleus (AGN) host galaxies within $z<1$. We first use PSFGAN to decouple host galaxy light from the central point source, then we invoke the Galaxy Morphology Network (GaMorNet) to estimate whether the host galaxy is disk-dominated, bulge-dominated, or indeterminate. Using optical images from five bands of the HSC Wide Survey, we build models independently in three redshift bins: low $(0<z<0.25)$, medium $(0.25<z<0.5)$, and high $(0.5<z<1.0)$. By first training on a large number of simulated galaxies, then fine-tuning using far fewer classified real galaxies, our framework predicts the actual morphology for $\sim$ $60\%-70\%$ host galaxies from test sets, with a classification precision of $\sim$ $80\%-95\%$, depending on redshift bin. Specifically, our models achieve disk precision of $96\%/82\%/79\%$ and bulge precision of $90\%/90\%/80\%$ (for the 3 redshift bins), at thresholds corresponding to indeterminate fractions of $30\%/43\%/42\%$. The classification precision of our models has a noticeable dependency on host galaxy radius and magnitude. No strong dependency is observed on contrast ratio. Comparing classifications of real AGNs, our models agree well with traditional 2D fitting with GALFIT. The PSFGAN+GaMorNet framework does not depend on the choice of fitting functions or galaxy-related input parameters, runs orders of magnitude faster than GALFIT, and is easily generalizable via transfer learning, making it an ideal tool for studying AGN host galaxy morphology in forthcoming large imaging survey.
translated by 谷歌翻译
我们研究机器学习(ML)和深度学习(DL)算法的能力,基于地下温度观察推断表面/地面交换通量。观察和助势是由代表哥伦比亚河附近的高分辨率数值模型,位于华盛顿州东南部的能源部汉福德遗址附近。随机测量误差,不同幅度的加入合成温度观察。结果表明,两个ML和DL方法可用于推断表面/地面交换通量。 DL方法,尤其是卷积神经网络,当用于用施加的平滑滤波器解释噪声温度数据时越高。然而,ML方法也表现良好,它们可以更好地识别减少数量的重要观察,这对于测量网络优化也是有用的。令人惊讶的是,M1和DL方法比向下通量更好地推断出向上的助焊剂。这与使用数值模型从温度观测推断出来的先前发现与先前的发现与先前的发现相反,并且可能表明将ML或DL推断的组合使用与数值推断相结合可以改善河流系统下方的助焊剂估计。
translated by 谷歌翻译
A methodology is proposed, which addresses the caveat that line-of-sight emission spectroscopy presents in that it cannot provide spatially resolved temperature measurements in nonhomogeneous temperature fields. The aim of this research is to explore the use of data-driven models in measuring temperature distributions in a spatially resolved manner using emission spectroscopy data. Two categories of data-driven methods are analyzed: (i) Feature engineering and classical machine learning algorithms, and (ii) end-to-end convolutional neural networks (CNN). In total, combinations of fifteen feature groups and fifteen classical machine learning models, and eleven CNN models are considered and their performances explored. The results indicate that the combination of feature engineering and machine learning provides better performance than the direct use of CNN. Notably, feature engineering which is comprised of physics-guided transformation, signal representation-based feature extraction and Principal Component Analysis is found to be the most effective. Moreover, it is shown that when using the extracted features, the ensemble-based, light blender learning model offers the best performance with RMSE, RE, RRMSE and R values of 64.3, 0.017, 0.025 and 0.994, respectively. The proposed method, based on feature engineering and the light blender model, is capable of measuring nonuniform temperature distributions from low-resolution spectra, even when the species concentration distribution in the gas mixtures is unknown.
translated by 谷歌翻译
剪切粘度虽然是所有液体的基本特性,但在计算上估计分子动力学模拟的计算昂贵。最近,机器学习(ML)方法已被用于在许多情况下增强分子模拟,从而显示出以相对廉价的方式估算粘度的希望。但是,ML方法面临重大挑战,例如当数据集的大小很小时,粘度也很小。在这项工作中,我们训练多个ML模型,以预测Lennard-Jones(LJ)流体的剪切粘度,特别强调解决由小型数据集引起的问题。具体而言,研究了与模型选择,绩效估计和不确定性定量有关的问题。首先,我们表明使用单个看不见的数据集的广泛使用的性能估计步骤显示了小数据集的广泛可变性。在这种情况下,可以使用交叉验证(CV)选择超参数(模型选择)的常见实践,以估算概括误差(性能估计)。我们比较了两个简单的简历程序,以便他们同时选择模型选择和性能估计的能力,并发现基于K折CV的过程显示出较低的误差估计差异。我们讨论绩效指标在培训和评估中的作用。最后,使用高斯工艺回归(GPR)和集合方法来估计单个预测的不确定性。 GPR的不确定性估计还用于构建适用性域,使用ML模型对本工作中生成的另一个小数据集提供了更可靠的预测。总体而言,这项工作中规定的程序共同导致了针对小型数据集的强大ML模型。
translated by 谷歌翻译
无论是在功能选择的领域还是可解释的AI领域,都有基于其重要性的“排名”功能的愿望。然后可以将这种功能重要的排名用于:(1)减少数据集大小或(2)解释机器学习模型。但是,在文献中,这种特征排名没有以系统的,一致的方式评估。许多论文都有不同的方式来争论哪些具有重要性排名最佳的特征。本文通过提出一种新的评估方法来填补这一空白。通过使用合成数据集,可以事先知道特征重要性得分,从而可以进行更系统的评估。为了促进使用新方法的大规模实验,在Python建造了一个名为FSEVAL的基准测定框架。该框架允许并行运行实验,并在HPC系统上的计算机上分布。通过与名为“权重和偏见”的在线平台集成,可以在实时仪表板上进行交互探索图表。该软件作为开源软件发布,并在PYPI平台上以包裹发行。该研究结束时,探索了一个这样的大规模实验,以在许多方面找到参与算法的优势和劣势。
translated by 谷歌翻译
In intensively managed forests in Europe, where forests are divided into stands of small size and may show heterogeneity within stands, a high spatial resolution (10 - 20 meters) is arguably needed to capture the differences in canopy height. In this work, we developed a deep learning model based on multi-stream remote sensing measurements to create a high-resolution canopy height map over the "Landes de Gascogne" forest in France, a large maritime pine plantation of 13,000 km$^2$ with flat terrain and intensive management. This area is characterized by even-aged and mono-specific stands, of a typical length of a few hundred meters, harvested every 35 to 50 years. Our deep learning U-Net model uses multi-band images from Sentinel-1 and Sentinel-2 with composite time averages as input to predict tree height derived from GEDI waveforms. The evaluation is performed with external validation data from forest inventory plots and a stereo 3D reconstruction model based on Skysat imagery available at specific locations. We trained seven different U-net models based on a combination of Sentinel-1 and Sentinel-2 bands to evaluate the importance of each instrument in the dominant height retrieval. The model outputs allow us to generate a 10 m resolution canopy height map of the whole "Landes de Gascogne" forest area for 2020 with a mean absolute error of 2.02 m on the Test dataset. The best predictions were obtained using all available satellite layers from Sentinel-1 and Sentinel-2 but using only one satellite source also provided good predictions. For all validation datasets in coniferous forests, our model showed better metrics than previous canopy height models available in the same region.
translated by 谷歌翻译
当人体的各种参数在日常生活中立即监测并与物联网(IoT)相连时,医疗保健数字化需要有效的人类传感器方法。特别是,用于迅速诊断COVID-19的机器学习(ML)传感器是医疗保健和环境援助生活(AAL)的物联网应用的一个重要案例(AAL)。通过各种诊断测试和成像结果确定Covid-19的感染状态是昂贵且耗时的。这项研究的目的是基于常规的血值(RBV)值,为诊断CoVID-19的快速,可靠和经济的替代工具提供了一种。该研究的数据集由总共5296例患者组成,具有相同数量的阴性和阳性Covid-19测试结果和51个常规血值。在这项研究中,13个流行的分类器机器学习模型和LogNnet神经网络模型被逐渐消失。在检测疾病的时间和准确性方面,最成功的分类器模型是基于直方图的梯度提升(HGB)。 HGB分类器确定了11个最重要的特征(LDL,胆固醇,HDL-C,MCHC,甘油三酸酯,淀粉酶,UA,LDH,CK-MB,ALP和MCH),以100%准确性检测该疾病,学习时间6.39秒。此外,讨论了这些特征在疾病诊断中的单,双重和三组合的重要性。我们建议将这11个特征及其组合用作诊断疾病的ML传感器的重要生物标志物,从而支持Arduino和云物联网服务上的边缘计算。
translated by 谷歌翻译
基于签名的技术使数学洞察力洞悉不断发展的数据的复杂流之间的相互作用。这些见解可以自然地转化为理解流数据的数值方法,也许是由于它们的数学精度,已被证明在数据不规则而不是固定的情况下分析流的数据以及数据和数据的尺寸很有用样本量均为中等。了解流的多模式数据是指数的:$ d $ d $的字母中的$ n $字母中的一个单词可以是$ d^n $消息之一。签名消除了通过采样不规则性引起的指数级噪声,但仍然存在指数量的信息。这项调查旨在留在可以直接管理指数缩放的域中。在许多问题中,可伸缩性问题是一个重要的挑战,但需要另一篇调查文章和进一步的想法。这项调查描述了一系列环境集足够小以消除大规模机器学习的可能性,并且可以有效地使用一小部分免费上下文和原则性功能。工具的数学性质可以使他们对非数学家的使用恐吓。本文中介绍的示例旨在弥合此通信差距,并提供从机器学习环境中绘制的可进行的工作示例。笔记本可以在线提供这些示例中的一些。这项调查是基于伊利亚·雪佛兰(Ilya Chevryev)和安德烈·科米利津(Andrey Kormilitzin)的早期论文,它们在这种机械开发的较早时刻大致相似。本文说明了签名提供的理论见解是如何在对应用程序数据的分析中简单地实现的,这种方式在很大程度上对数据类型不可知。
translated by 谷歌翻译
我们向传感器独立性(Sensei)介绍了一种新型神经网络架构 - 光谱编码器 - 通过该传感器独立性(Sensei) - 通过其中具有不同组合的光谱频带组合的多个多光谱仪器可用于训练广义深度学习模型。我们专注于云屏蔽的问题,使用几个预先存在的数据集,以及Sentinel-2的新的自由可用数据集。我们的模型显示在卫星上实现最先进的性能,它受过训练(Sentinel-2和Landsat 8),并且能够推断到传感器,它在训练期间尚未见过Landsat 7,每\ 'USAT-1,和Sentinel-3 SLST。当多种卫星用于培训,接近或超越专用单传感器型号的性能时,模型性能显示出改善。这项工作是激励遥感社区可以使用巨大各种传感器采取的数据的动机。这不可避免地导致标记用于不同传感器的努力,这限制了深度学习模型的性能,因为他们需要最佳地执行巨大的训练。传感器独立性可以使深度学习模型能够同时使用多个数据集进行培训,提高性能并使它们更广泛适用。这可能导致深入学习方法,用于在板载应用程序和地面分段数据处理中更频繁地使用,这通常需要模型在推出时或之后即将开始。
translated by 谷歌翻译
近年来,随着传感器和智能设备的广泛传播,物联网(IoT)系统的数据生成速度已大大增加。在物联网系统中,必须经常处理,转换和分析大量数据,以实现各种物联网服务和功能。机器学习(ML)方法已显示出其物联网数据分析的能力。但是,将ML模型应用于物联网数据分析任务仍然面临许多困难和挑战,特别是有效的模型选择,设计/调整和更新,这给经验丰富的数据科学家带来了巨大的需求。此外,物联网数据的动态性质可能引入概念漂移问题,从而导致模型性能降解。为了减少人类的努力,自动化机器学习(AUTOML)已成为一个流行的领域,旨在自动选择,构建,调整和更新机器学习模型,以在指定任务上实现最佳性能。在本文中,我们对Automl区域中模型选择,调整和更新过程中的现有方法进行了审查,以识别和总结将ML算法应用于IoT数据分析的每个步骤的最佳解决方案。为了证明我们的发现并帮助工业用户和研究人员更好地实施汽车方法,在这项工作中提出了将汽车应用于IoT异常检测问题的案例研究。最后,我们讨论并分类了该领域的挑战和研究方向。
translated by 谷歌翻译
我们为RS-HDMR-GPR提供了一个Python实现(随机采样高维模型表示高斯进程回归)。该方法构建具有较低维度术语的多变量函数的表示,作为耦合顺序的扩展,或者仅使用仅给定维度的术语。特别是促进从稀疏数据恢复功能依赖性。代码还允许丢弃变量的缺失值,并且有用的HDMR术语的有用数量的显着修剪。该代码还可用于估计输入变量的不同组合的相对重要性,从而添加对一般机器学习方法的洞察元素。该回归工具的能力在涉及合成分析功能,水分子的潜在能量表面,材料(结晶镁,铝和硅)和金融市场数据的潜在能量表面进行了证明的能力。
translated by 谷歌翻译
癫痫发作是最重要的神经障碍之一,其早期诊断将有助于临床医生为患者提供准确的治疗方法。脑电图(EEG)信号广泛用于癫痫癫痫发作检测,其提供了关于大脑功能的实质性信息的专家。本文介绍了采用模糊理论和深层学习技术的新型诊断程序。所提出的方法在Bonn大学数据集上进行了评估,具有六个分类组合以及弗赖堡数据集。可以使用可调谐Q小波变换(TQWT)来将EEG信号分解为不同的子带。在特征提取步骤中,从TQWT的不同子带计算了13个不同的模糊熵,并且计算它们的计算复杂性以帮助研究人员选择各种任务的最佳集合。在下文中,采用具有六层的AutoEncoder(AE)用于减少维数。最后,标准自适应神经模糊推理系统(ANFIS)以及其具有蚱蜢优化算法(ANFIS-GOA),粒子群优化(ANFIS-PSO)和育种群优化(ANFIS-BS)方法的变体分类。使用我们所提出的方法,ANFIS-BS方法在弗赖堡数据集上分为两类分为两类和准确度,在两类分类中获得99.46%的准确性,以及弗赖堡数据集的99.28%,达到最先进的两个人的表演。
translated by 谷歌翻译
城市土地覆盖的时间序列数据在分析城市增长模式方面具有很大的效用,不透水表面和植被的分布变化以及对城市微观气候产生影响。虽然Landsat数据非常适于这种分析,但由于长时间系列的免费图像,传统的每像素硬分类未能产生Landsat数据的全部潜力。本文提出了一种子像素分类方法,其利用Landsat-5 TM和Resorational-1 Liss-IV传感器的时间重叠。我们训练卷积神经网络,预测30米Landsat-5 TM数据的分数陆地覆盖。从2011年的Bengaluru的一个艰难的5.8M Liss-IV图像估计参考陆地覆盖分数。此外,我们从2009年使用Mumbai数据并将其与使用的结果进行了概括和卓越的性能随机森林分类器。对于Bengaluru(2011)和Mumbai(2009)数据,我们的CNN模型的平均绝对百分比误差在30M细胞水平上的内置和植被分数预测的7.2至11.3。与最近的最近的研究不同,在使用数据在空间范围进行有限的空间范围进行验证,我们的模型已经过度培训并验证了两个不同时间段的两个Mega城市的完整空间范围的数据。因此,它可以可靠地从Landsat-5 TM时间序列数据中可靠地产生30M内置和植被分数图,以分析长期城市增长模式。
translated by 谷歌翻译
本文致力于检测地球图像森林和非林区的问题。我们提出了两个统计方法来解决这个问题:一个基于多假设检测与参数分布家庭,另一个在非参数测试。参数化方法是文献中的新颖,与更大类别的问题相关 - 检测天然对象,以及异常检测。我们为两种方法中的每一种开发数学背景,使用它们构建自充足检测算法,并讨论其实现的数值方面。我们还将我们的算法与使用卫星数据的标准机器学习的算法进行比较。
translated by 谷歌翻译
在概述中,引入了通用数学对象(映射),并解释了其与模型物理参数化的关系。引入了可用于模拟和/或近似映射的机器学习(ML)工具。ML的应用在模拟现有参数化,开发新的参数化,确保物理约束和控制开发应用程序的准确性。讨论了一些允许开发人员超越标准参数化范式的ML方法。
translated by 谷歌翻译
评估能源转型和能源市场自由化对资源充足性的影响是一种越来越重要和苛刻的任务。能量系统的上升复杂性需要足够的能量系统建模方法,从而提高计算要求。此外,随着复杂性,同样调用概率评估和场景分析同样增加不确定性。为了充分和高效地解决这些各种要求,需要来自数据科学领域的新方法来加速当前方法。通过我们的系统文献综述,我们希望缩小三个学科之间的差距(1)电力供应安全性评估,(2)人工智能和(3)实验设计。为此,我们对所选应用领域进行大规模的定量审查,并制作彼此不同学科的合成。在其他发现之外,我们使用基于AI的方法和应用程序的AI方法和应用来确定电力供应模型的复杂安全性的元素,并作为未充分涵盖的应用领域的储存调度和(非)可用性。我们结束了推出了一种新的方法管道,以便在评估电力供应安全评估时充分有效地解决当前和即将到来的挑战。
translated by 谷歌翻译
在医疗保健系统中,需要患者使用可穿戴设备进行远程数据收集和对健康数据的实时监控以及健康状况的状态。可穿戴设备的这种采用导致收集和传输的数据量显着增加。由于设备由较小的电池电源运行,因此由于设备的高处理要求以进行数据收集和传输,因此可以快速减少它们。鉴于医疗数据的重要性,必须所有传输数据遵守严格的完整性和可用性要求。减少医疗保健数据的量和传输频率将通过使用推理算法改善设备电池寿命。有一个以准确性和效率改善传输指标的问题,彼此之间的权衡,例如提高准确性会降低效率。本文表明,机器学习可用于分析复杂的健康数据指标,例如数据传输的准确性和效率,以使用Levenberg-Marquardt算法来克服权衡问题,从而增强这两个指标,从而通过少较少的样本来传输,同时保持维护准确性。使用标准心率数据集测试该算法以比较指标。结果表明,LMA最好以3.33倍的效率进行样本数据尺寸和79.17%的精度,在7种不同的采样案例中具有相似的准确性,用于测试,但表明效率提高。与具有高效率的现有方法相比,这些提出的方法使用机器学习可以显着改善两个指标,而无需牺牲其他指标。
translated by 谷歌翻译
众所周知,由于许多空间和时间变化的因素有助于斜率稳定性,因此难以预测滑坡。人工神经网络(ANN)已被证明可以提高预测准确性。但是,传统的ANN是无法解释的,复杂的黑匣子模型。这使得很难在建模区域中提取有关滑坡控制的机械信息,或在此高风险应用中信任结果。在此,我们介绍了可解释的加性神经网络在滑坡易感性建模中的首次应用。我们介绍了一个新的添加剂ANN优化框架,以及新的数据集除法和结果解释技术,适用于使用空间依赖的数据结构(例如滑坡易感性)建模应用程序。我们将我们的方法称为完全可解释性,高精度,高推广性和低模型复杂性作为超固有神经网络(SNN)优化的方法。我们通过培训模型来验证我们的方法,以评估喜马拉雅山脉最容易受到滑坡的三个不同区域的滑坡敏感性。 SNN生成的可解释的神经网络模型胜过基于物理的稳定性和统计模型,并实现了与最先进的深神经网络相似的性能,同时提供了有关滑坡控制因素的相对重要性的见解。 SNN模型发现,斜坡,降水和山坡方面的产物是对研究区域中高压滑敏感性的重要主要因素。这些确定的控件表明,强烈的斜坡气候耦合以及微气候以及在最东部喜马拉雅山的滑坡事件中起主要作用。
translated by 谷歌翻译