给定无监督的离群检测(OD)算法,我们如何在没有任何标签的新数据集上优化其超参数(S)(hp)?在这项工作中,我们解决了针对无监督的OD问题的具有挑战性的超参数优化,并提出了基于元学习的第一种称为HPOD的系统方法。HPOD利用现有的OD基准数据集中大量HP的先前性能,并传输此信息以在没有标签的新数据集上启用HP评估。此外,HPOD适应基于顺序模型的优化(最初是监督的)优化,以有效地识别有希望的HP。广泛的实验表明,HPOD可以与深(例如健壮的自动编码器)和浅层(例如,局部离群因子(LOF)和隔离林(Iforest forest(iforeSt))OD算法一起使用,在离散和连续的HP空间上都超出了大量的基准范围比LOF和Iforest的默认HPS平均提高了58%和66%的性能。
translated by 谷歌翻译
给定图形学习任务,例如链接预测,在新的图数据集上,我们如何自动选择最佳方法及其超参数(集体称为模型)?图形学习的模型选择在很大程度上是临时的。一种典型的方法是将流行方法应用于新数据集,但这通常是次优的。另一方面,系统比较新图上的模型迅速变得太成本过高,甚至不切实际。在这项工作中,我们为自动图机学习开发了第一种称为AutoGML的元学习方法,该方法利用了基准图数据集中大量现有方法的先前性能,并携带此先前的经验以自动选择有效的有效用于新图的模型,无需任何模型培训或评估。为了捕获来自不同领域的图形之间的相似性,我们引入了量化图形结构特征的专业元图特征。然后,我们设计了一个代表模型和图形之间关系的元图,并开发了在元图上运行的图形元学习器,该图估计了每个模型与不同图的相关性。通过广泛的实验,我们表明,使用AutoGML选择新图的方法显着优于始终应用流行方法以及几个现有的元学习者,同时在测试时非常快。
translated by 谷歌翻译
鉴于新的数据集D和低计算预算,我们应该如何选择预培训的模型来微调D,并设置微调的超参数而不冒险过度拟合,尤其是在D小的情况下?在这里,我们扩展了自动化的机器学习(AUTOML),以最好地做出这些选择。我们与域无关的元学习方法学习了一个零拍的替代模型,在测试时,该模型允许选择正确的深度学习(DL)管道(包括预训练的模型和微调的超参数)仅给定描述d的琐碎元功能,例如图像分辨率或类的数量。为了训练这种零射模型,我们在大量数据集中收集了许多DL管道的性能数据,并在此数据上收集了元训练,以最大程度地减少成对排名目标。我们在Chalearn AutoDL挑战基准的视觉轨道的严格时间限制下评估我们的方法,显然优于所有挑战竞争者。
translated by 谷歌翻译
大多数机器学习算法由一个或多个超参数配置,必须仔细选择并且通常会影响性能。为避免耗时和不可递销的手动试验和错误过程来查找性能良好的超参数配置,可以采用各种自动超参数优化(HPO)方法,例如,基于监督机器学习的重新采样误差估计。本文介绍了HPO后,本文审查了重要的HPO方法,如网格或随机搜索,进化算法,贝叶斯优化,超带和赛车。它给出了关于进行HPO的重要选择的实用建议,包括HPO算法本身,性能评估,如何将HPO与ML管道,运行时改进和并行化结合起来。这项工作伴随着附录,其中包含关于R和Python的特定软件包的信息,以及用于特定学习算法的信息和推荐的超参数搜索空间。我们还提供笔记本电脑,这些笔记本展示了这项工作的概念作为补充文件。
translated by 谷歌翻译
现有关于异常检测的作品(AD)依赖于人类注释者的清洁标签,这些标签在实践中获取昂贵。在这项工作中,我们提出了一种方法来利用弱/嘈杂标签(例如,由机器规则生成的检测恶意软件产生的风险评分),可获得异常检测的便宜。具体来说,我们建议Axpoe,这是从嘈杂标签中学习的异常检测算法的第一个框架。简而言之,Axpoe利用了专家(MOE)架构的混合物来鼓励从多个嘈杂来源的专门和可扩展的学习。它通过共享大多数模型参数来捕获嘈杂标签之间的相似性,同时通过构建“专家”子网络来鼓励专业化。为了进一步从嘈杂的标签中榨出信号,Ampoe将其用作输入功能来促进专家学习。在八个数据集(包括专有企业安全数据集)上进行了广泛的结果,证明了AXPOE的有效性,在该数据集中,它在不使用它的情况下可以提高34%的性能改进。此外,它的表现超过了13个带有等效网络参数和失败的领先基线。值得注意的是,AXPOE是模型不可替代的,可以实现任何基于神经网络的检测方法来处理嘈杂的标签,在此我们在多层感知器(MLP)和领先的AD方法Deepsad上都展示了其结果。
translated by 谷歌翻译
自动化封路计优化(HPO)已经获得了很大的普及,并且是大多数自动化机器学习框架的重要成分。然而,设计HPO算法的过程仍然是一个不系统和手动的过程:确定了现有工作的限制,提出的改进是 - 即使是专家知识的指导 - 仍然是一定任意的。这很少允许对哪些算法分量的驾驶性能进行全面了解,并且承载忽略良好算法设计选择的风险。我们提出了一个原理的方法来实现应用于多倍性HPO(MF-HPO)的自动基准驱动算法设计的原则方法:首先,我们正式化包括的MF-HPO候选的丰富空间,但不限于普通的HPO算法,然后呈现可配置的框架覆盖此空间。要自动和系统地查找最佳候选者,我们遵循通过优化方法,并通过贝叶斯优化搜索算法候选的空间。我们挑战是否必须通过执行消融分析来挑战所发现的设计选择或可以通过更加天真和更简单的设计。我们观察到使用相对简单的配置,在某些方式中比建立的方法更简单,只要某些关键配置参数具有正确的值,就可以很好地执行得很好。
translated by 谷歌翻译
异常值检测是指偏离一般数据分布的数据点的识别。现有的无监督方法经常遭受高计算成本,复杂的绰号调谐以及有限的解释性,特别是在使用大型高维数据集时。为了解决这些问题,我们介绍了一种称为ECOD(基于实证累积分布的异常值检测)的简单而有效的算法,这是由异常值常常出现在分布尾部的“罕见事件”的事实的启发。在简而言之,ECOD首先通过计算数据的各维度的经验累积分布来估计输入数据的基础分布以非参数。 ECOD然后使用这些经验分布来估计每个数据点的每维的尾部概率。最后,ECOD通过跨尺寸聚合估计的尾概率来计算每个数据点的异常值。我们的贡献如下:(1)我们提出了一种名为ECOD的新型异常检测方法,这既是可参数又易于解释; (2)我们在30个基准数据集上进行广泛的实验,在那里我们发现ECOD在准确性,效率和可扩展性方面优于11个最先进的基线; (3)我们释放易于使用和可扩展的(具有分布式支持)Python实现,以实现可访问性和再现性。
translated by 谷歌翻译
端到端的Automl吸引了学术界和行业的密集兴趣,它们在功能工程,算法/模型选择和超参数调整引起的空间中自动搜索ML管道。但是,现有的Automl系统在适用于具有较大高维搜索空间的应用程序域时会遇到可伸缩性问题。我们提出了火山洛(Volcanoml),这是一个可扩展且可扩展的框架,可促进对大型汽车搜索空间的系统探索。 Volcanoml引入并实施了将大型搜索空间分解为较小的基本构建块,并允许用户利用这些构建块来制定手头上的汽车问题的执行计划。 Volcanoml进一步支持火山风格的执行模型(类似于现代数据库系统支持的模型)来执行构建的计划。我们的评估表明,不仅火山团提高了汽车中搜索空间分解的表达水平,还导致了分解策略的实际发现,这些发现比先进的自动符号系统所采用的策略更有效率地更加有效。作为自动滑雪。
translated by 谷歌翻译
图形离群值检测是一项具有许多应用程序的新兴但至关重要的机器学习任务。尽管近年来算法扩散,但缺乏标准和统一的绩效评估设置限制了它们在现实世界应用中的进步和使用。为了利用差距,我们(据我们所知)(据我们所知)第一个全面的无监督节点离群值检测基准为unod,并带有以下亮点:(1)评估骨架从经典矩阵分解到最新图形神经的骨架的14个方法网络; (2)在现实世界数据集上使用不同类型的注射异常值和自然异常值对方法性能进行基准测试; (3)通过在不同尺度的合成图上使用运行时和GPU存储器使用算法的效率和可扩展性。基于广泛的实验结果的分析,我们讨论了当前渠道方法的利弊,并指出了多个关键和有希望的未来研究方向。
translated by 谷歌翻译
Many real-world problems are usually computationally costly and the objective functions evolve over time. Data-driven, a.k.a. surrogate-assisted, evolutionary optimization has been recognized as an effective approach for tackling expensive black-box optimization problems in a static environment whereas it has rarely been studied under dynamic environments. This paper proposes a simple but effective transfer learning framework to empower data-driven evolutionary optimization to solve dynamic optimization problems. Specifically, it applies a hierarchical multi-output Gaussian process to capture the correlation between data collected from different time steps with a linearly increased number of hyperparameters. Furthermore, an adaptive source task selection along with a bespoke warm staring initialization mechanisms are proposed to better leverage the knowledge extracted from previous optimization exercises. By doing so, the data-driven evolutionary optimization can jump start the optimization in the new environment with a strictly limited computational budget. Experiments on synthetic benchmark test problems and a real-world case study demonstrate the effectiveness of our proposed algorithm against nine state-of-the-art peer algorithms.
translated by 谷歌翻译
考虑到过去几十年中开发的一长串异常检测算法,它们如何在(i)(i)不同级别的监督,(ii)不同类型的异常以及(iii)嘈杂和损坏的数据方面执行?在这项工作中,我们通过(据我们所知)在55个名为Adbench的55个基准数据集中使用30个算法来回答这些关键问题。我们的广泛实验(总共93,654)确定了对监督和异常类型的作用的有意义的见解,并解锁了研究人员在算法选择和设计中的未来方向。借助Adbench,研究人员可以轻松地对数据集(包括我们从自然语言和计算机视觉域的贡献)对现有基线的新提出的方法进行全面和公平的评估。为了促进可访问性和可重复性,我们完全开源的Adbench和相应的结果。
translated by 谷歌翻译
由于其数据效率,贝叶斯优化已经出现在昂贵的黑盒优化的最前沿。近年来,关于新贝叶斯优化算法及其应用的发展的研究激增。因此,本文试图对贝叶斯优化的最新进展进行全面和更新的调查,并确定有趣的开放问题。我们将贝叶斯优化的现有工作分为九个主要群体,并根据所提出的算法的动机和重点。对于每个类别,我们介绍了替代模型的构建和采集功能的适应的主要进步。最后,我们讨论了开放的问题,并提出了有希望的未来研究方向,尤其是在分布式和联合优化系统中的异质性,隐私保护和公平性方面。
translated by 谷歌翻译
自动化机器学习近年来取得了卓越的技术发展,并建立了自动化机器学习管道现在是一个必不可少的任务。模型集合是组合多种模型来获得更好更强更强的模型的技术。然而,现有的自动化机器学习在处理模型集合方面往往是简单的,其中集合策略是固定的,例如堆叠的泛化。不同的集合方法有很多技术,尤其是合奏选择,固定的集合策略限制了模型性能的上限。在本文中,我们为自动化机器学习提出了一种新颖的框架。我们的框架纳入了动态集合选择的进步,并提出了我们最佳知识,我们的方法是自动策略领域的第一个搜索和优化集合策略。在比较实验中,我们的方法优于来自OpenML平台的42个分类数据集中具有相同CPU时间的最先进的自动化机器学习框架。对我们框架的消融实验验证了我们提出的方法的有效性。
translated by 谷歌翻译
算法配置(AC)与对参数化算法最合适的参数配置的自动搜索有关。目前,文献中提出了各种各样的交流问题变体和方法。现有评论没有考虑到AC问题的所有衍生物,也没有提供完整的分类计划。为此,我们引入分类法以分别描述配置方法的交流问题和特征。我们回顾了分类法的镜头中现有的AC文献,概述相关的配置方法的设计选择,对比方法和问题变体相互对立,并描述行业中的AC状态。最后,我们的评论为研究人员和从业人员提供了AC领域的未来研究方向。
translated by 谷歌翻译
流媒体数据中对异常的实时检测正在受到越来越多的关注,因为它使我们能够提高警报,预测故障并检测到整个行业的入侵或威胁。然而,很少有人注意比较流媒体数据(即在线算法)的异常检测器的有效性和效率。在本文中,我们介绍了来自不同算法家族(即基于距离,密度,树木或投影)的主要在线检测器的定性合成概述,并突出了其构建,更新和测试检测模型的主要思想。然后,我们对在线检测算法的定量实验评估以及其离线对应物进行了彻底的分析。检测器的行为与不同数据集(即元功能)的特征相关,从而提供了对其性能的元级分析。我们的研究介绍了文献中几个缺失的见解,例如(a)检测器对随机分类器的可靠性以及什么数据集特性使它们随机执行; (b)在线探测器在何种程度上近似离线同行的性能; (c)哪种绘制检测器的策略和更新原始图最适合检测仅在数据集的功能子空间中可见的异常; (d)属于不同算法家族的探测器的有效性与效率之间的权衡是什么; (e)数据集的哪些特定特征产生在线算法以胜过所有其他特征。
translated by 谷歌翻译
贝叶斯优化(BO)已成为许多昂贵现实世界功能的全球优化的流行策略。与普遍认为BO适合优化黑框功能的信念相反,它实际上需要有关这些功能特征的域知识才能成功部署BO。这样的领域知识通常表现在高斯流程先验中,这些先验指定了有关功能的初始信念。但是,即使有专家知识,选择先验也不是一件容易的事。对于复杂的机器学习模型上的超参数调谐问题尤其如此,在这种模型中,调整目标的景观通常很难理解。我们寻求一种设定这些功能性先验的替代实践。特别是,我们考虑了从类似功能的数据中,使我们可以先验地进行更紧密的分布。从理论上讲,我们与预先训练的先验表示对BO的遗憾。为了验证我们在现实的模型培训设置中的方法,我们通过训练在流行图像和文本数据集上的数以万计的近状态模型配置来收集了大型多任务超参数调谐数据集,以及蛋白质序列数据集。我们的结果表明,平均而言,我们的方法能够比最佳竞争方法更有效地定位良好的超参数。
translated by 谷歌翻译
黑匣子优化(BBO)具有广泛的应用,包括自动机器学习,工程,物理和实验设计。但是,在适用性,性能和效率方面,用户对用户将BBO方法应用于现有软件包的问题仍有挑战。在本文中,我们构建了OpenBox,开源和通用BBO服务,具有改进的可用性。OpenBox后面的模块化设计还有助于灵活的抽象和优化在其他现有系统中常见的基本BBO组件。OpenBox分布,容错和可扩展。为了提高效率,OpenBox进一步利用“算法不可知”并行化和转移学习。我们的实验结果表明,与现有系统相比,OpenBox的有效性和效率。
translated by 谷歌翻译
Decades of progress in simulation-based surrogate-assisted optimization and unprecedented growth in computational power have enabled researchers and practitioners to optimize previously intractable complex engineering problems. This paper investigates the possible benefit of a concurrent utilization of multiple simulation-based surrogate models to solve complex discrete optimization problems. To fulfill this, the so-called Self-Adaptive Multi-surrogate Assisted Efficient Global Optimization algorithm (SAMA-DiEGO), which features a two-stage online model management strategy, is proposed and further benchmarked on fifteen binary-encoded combinatorial and fifteen ordinal problems against several state-of-the-art non-surrogate or single surrogate assisted optimization algorithms. Our findings indicate that SAMA-DiEGO can rapidly converge to better solutions on a majority of the test problems, which shows the feasibility and advantage of using multiple surrogate models in optimizing discrete problems.
translated by 谷歌翻译
Many different machine learning algorithms exist; taking into account each algorithm's hyperparameters, there is a staggeringly large number of possible alternatives overall. We consider the problem of simultaneously selecting a learning algorithm and setting its hyperparameters, going beyond previous work that addresses these issues in isolation. We show that this problem can be addressed by a fully automated approach, leveraging recent innovations in Bayesian optimization. Specifically, we consider a wide range of feature selection techniques (combining 3 search and 8 evaluator methods) and all classification approaches implemented in WEKA, spanning 2 ensemble methods, 10 meta-methods, 27 base classifiers, and hyperparameter settings for each classifier. On each of 21 popular datasets from the UCI repository, the KDD Cup 09, variants of the MNIST dataset and CIFAR-10, we show classification performance often much better than using standard selection/hyperparameter optimization methods. We hope that our approach will help non-expert users to more effectively identify machine learning algorithms and hyperparameter settings appropriate to their applications, and hence to achieve improved performance.
translated by 谷歌翻译
尽管机器学习的其他领域越来越多地自动化,但设计高性能的推荐系统仍然需要高水平的人力努力。此外,最近的工作表明,现代推荐系统算法并不总是比调整良好的基线改进。一个自然的后续问题是:“我们如何为新数据集和性能指标选择正确的算法?”在这项工作中,我们首先要通过比较85个数据集和315个指标的18算法和100组超参数的大规模研究。我们发现,最好的算法和超参数高度依赖于数据集和性能指标,但是,每种算法的性能与数据集的各种元元功能之间也存在很强的相关性。在这些发现的激励下,我们创建了Reczilla,这是一种推荐系统的元学习方法,该方法使用模型来预测新的,看不见的数据集的最佳算法和超参数。通过使用比先前的工作更多的元培训数据,Reczilla可以大大降低面对新推荐系统应用时人类参与水平。我们不仅发布了我们的代码和预处理的Reczilla模型,而且还发布了所有原始的实验结果,因此从业者可以为其所需的性能指标训练Reczilla模型:https://github.com/naszilla/reczilla。
translated by 谷歌翻译