因果发现是一项主要任务,对于机器学习至关重要,因为因果结构可以使模型超越基于纯粹的相关推理并显着提高其性能。但是,从数据中找到因果结构在计算工作和准确性方面都构成了重大挑战,更不用说在没有干预的情况下不可能。在本文中,我们开发了一种元强化学习算法,该算法通过学习执行干预措施以构建明确的因果图来执行因果发现。除了对可能的下游应用程序有用外,估计的因果图还为数据生成过程提供了解释。在本文中,我们表明我们的算法估计了与SOTA方法相比,即使在以前从未见过的基本因果结构的环境中也是如此。此外,我们进行了一项消融研究,展示了学习干预措施如何有助于我们方法的整体表现。我们得出的结论是,干预措施确实有助于提高性能,从而有效地对可能看不见的环境的因果结构进行了准确的估计。
translated by 谷歌翻译
尽管在过去的几年中取得了重大进展,但歧义仍然是面部表情识别(FER)的关键挑战。它可能导致嘈杂和不一致的注释,这阻碍了现实世界中深度学习模型的性能。在本文中,我们提出了一种新的不确定性标签分布学习方法,以提高深层模型的鲁棒性,以防止不确定性和歧义。我们利用价值空间中的邻里信息来适应培训训练样本的情绪分布。我们还考虑提供的标签将其纳入标签分布时的不确定性。我们的方法可以轻松地集成到深层网络中,以获得更多的培训监督并提高识别准确性。在各种嘈杂和模棱两可的环境下,在几个数据集上进行了密集的实验表明,我们的方法取得了竞争成果,并且超出了最新的最新方法。我们的代码和模型可在https://github.com/minhnhatvt/label-distribution-learning-fer-tf上找到。
translated by 谷歌翻译
计算表型可以无监督发现患者的亚组以及电子健康记录(EHR)的相应同时发生的医疗状况。通常,EHR数据包含人口统计信息,诊断和实验室结果。发现(新颖的)表型具有预后和治疗价值的潜力。为医生提供透明且可解释的结果是一项重要要求,也是推进精确医学的重要组成部分。低级别数据近似方法,例如矩阵(例如,非负矩阵分解)和张量分解(例如,candecomp/parafac),已经证明它们可以提供这种透明且可解释的见解。最近的发展通过合并不同的限制和正规化来促进可解释性,从而适应了低级数据近似方法。此外,它们还为EHR数据中的共同挑战提供解决方案,例如高维度,数据稀疏性和不完整性。尤其是从纵向EHR中提取时间表型,近年来引起了很多关注。在本文中,我们对计算表型的低级别近似方法进行了全面的综述。现有文献根据矩阵与张量分解归类为时间与静态表型方法。此外,我们概述了验证表型的不同方法,即评估临床意义。
translated by 谷歌翻译
跨核心联合学习利用了几百个可靠的数据筒仓,并具有高速访问链接,共同训练模型。尽管这种方法成为联合学习中的流行环境,但设计出强大的拓扑以减少训练时间仍然是一个开放的问题。在本文中,我们提出了一种用于跨核心联合学习的新的多编码拓扑。我们首先使用覆盖图构造多式图。然后,我们将此多数分析为具有孤立节点的不同简单图。隔离节点的存在使我们能够执行模型聚合而无需等待其他节点,从而减少训练时间。我们进一步提出了一种新的分布式学习算法,以与我们的多编码拓扑一起使用。公共数据集的密集实验表明,与最近的最新拓扑相比,我们提出的方法大大减少了训练时间,同时确保收敛并保持模型的准确性。
translated by 谷歌翻译
越来越多的人期望在对象属性具有高感知不确定性的越来越多的非结构化环境中操纵对象。这直接影响成功的对象操纵。在这项工作中,我们提出了一个基于增强的学习动作计划框架,用于对象操纵,该框架既利用了在现有的多感觉反馈,也可以使用学习的注意力引导的深层负担能力模型作为感知状态。可承受的模型是从多种感官方式中学到的,包括视觉和触摸(触觉和力/扭矩),旨在预测和指示具有相似外观的物体的多个负担能力(即抓地力和推动力)的可操作区域属性(例如,质量分布)。然后,对基于DQN的深钢筋学习算法进行培训,以选择成功对象操纵的最佳动作。为了验证提出的框架的性能,使用开放数据集和收集的数据集对我们的方法进行评估和基准测试。结果表明,所提出的方法和整体框架的表现优于现有方法,并实现更好的准确性和更高的效率。
translated by 谷歌翻译
我们为通过异质网络提供了一种新颖的培训配方,用于联合学习,每个设备都可以具有不同的体系结构。我们介绍了培训,并以较高复杂性的设备为附带目标,以在联合环境中共同培训不同的体系结构。我们从经验上表明,与最先进的方法相比,我们的方法改善了不同架构的性能,并导致沟通节省高。
translated by 谷歌翻译
在边缘设备上部署深层神经网络〜(DNNS)为现实世界任务提供了有效的解决方案。边缘设备已用于在不同域中有效地收集大量数据。DNN是用于数据处理和分析的有效工具。但是,由于计算资源和内存有限,在边缘设备上设计DNN是具有挑战性的。为了应对这一挑战,我们演示了最大78000 DNN加速器上边缘设备的对象检测系统。它分别与摄像头和用于图像采集和检测展览的LCD显示器集成了启动DNN的推断。床是一种简洁,有效且详细的解决方案,包括模型培训,量化,合成和部署。实验结果表明,床可以通过300 kb微小的DNN模型产生准确的检测,该模型仅需91.9 ms的推理时间和1.845 MJ的能量。
translated by 谷歌翻译
关键字斑点(KWS)已成为许多智能设备的不可或缺的一部分,因为音频是与这些设备交互的最有效方法之一。 KWS解决方案的准确性和性能一直是研究人员的主要焦点,并且由于深入学习,在这个领域取得了实质性的进展。然而,随着KWS的使用传播到IOT设备中,除了性能之外,能量效率成为一个非常关键的要求。我们相信在硬件和神经网络(NN)模型架构中都会寻求功率优化的KWS解决方案在文献中的许多解决方案中是有利的,其中主要考虑了问题的架构方面。在这项工作中,我们通过考虑在MAX78000的部署端,超低功耗CNN加速器的端到端能效设计了优化的KWS CNN模型。通过组合的硬件和型号优化方法,我们实现了12个类的96.3 \%精度,同时仅消耗了每次推断的251 UJ。我们将结果与文献中的其他基于小型神经网络的KWS解决方案进行比较。此外,我们在功率优化的ARM Cortex-M4F中分享我们模型的能量消耗,以便为了清楚起见,描绘了所选硬件的有效性。
translated by 谷歌翻译
我们提出了一种用于分布式培训神经网络模型的新型联合学习方法,其中服务器在每轮中随机选择的设备的子集之间编制协作。我们主要从通信角度查看联合学习问题,并允许更多设备级别计算来节省传输成本。我们指出了一个基本的困境,因为当地 - 设备水平的最低实证损失与全球经验损失的最小值不一致。与最近的事先有关的不同,尝试无所作用的最小化或利用用于并行化梯度计算的设备,我们为每轮的每个设备提出动态规范器,以便在极限中,全局和设备解决方案对齐。我们通过实证结果对真实的和合成数据以及我们的方案在凸和非凸面设置中导致有效培训的分析结果,同时对设备异质性完全不可知,以及大量设备,部分参与和不平衡的数据。
translated by 谷歌翻译
近似任意凸起函数的任务是在诸如凸起回归的几个学习问题中,学习具有凸(DC)功能的差异,以及近似Bregman分歧。在本文中,我们展示了如何通过2块ADMM方法来解决广泛的凸函数学习问题,其中每个块的更新可以以封闭的形式计算。对于Convex Lipschitz回归的任务,我们建立了我们所提出的算法以$ o(n ^ 3 d ^ {1.5} + n ^ 2 d ^ {2.5} + nd ^ 3)$ for tata r x $ x \在r ^ {n \ times d} $。如果$ d = o(n ^ 4)$。此外,我们提供了类似的DC回归和Bregman发散学习的求解器。与以前的方法不同,我们的方法适用于GPU。我们展示了回归和度量学习实验,即我们的方法比现有方法快20倍,并产生与最先进的结果相当的结果。
translated by 谷歌翻译