In the brain, information is encoded, transmitted and used to inform behaviour at the level of timing of action potentials distributed over population of neurons. To implement neural-like systems in silico, to emulate neural function, and to interface successfully with the brain, neuromorphic circuits need to encode information in a way compatible to that used by populations of neuron in the brain. To facilitate the cross-talk between neuromorphic engineering and neuroscience, in this Review we first critically examine and summarize emerging recent findings about how population of neurons encode and transmit information. We examine the effects on encoding and readout of information for different features of neural population activity, namely the sparseness of neural representations, the heterogeneity of neural properties, the correlations among neurons, and the time scales (from short to long) at which neurons encode information and maintain it consistently over time. Finally, we critically elaborate on how these facts constrain the design of information coding in neuromorphic circuits. We focus primarily on the implications for designing neuromorphic circuits that communicate with the brain, as in this case it is essential that artificial and biological neurons use compatible neural codes. However, we also discuss implications for the design of neuromorphic systems for implementation or emulation of neural computation.
translated by 谷歌翻译
Modern machine learning pipelines, in particular those based on deep learning (DL) models, require large amounts of labeled data. For classification problems, the most common learning paradigm consists of presenting labeled examples during training, thus providing strong supervision on what constitutes positive and negative samples. This constitutes a major obstacle for the development of DL models in radiology--in particular for cross-sectional imaging (e.g., computed tomography [CT] scans)--where labels must come from manual annotations by expert radiologists at the image or slice-level. These differ from examination-level annotations, which are coarser but cheaper, and could be extracted from radiology reports using natural language processing techniques. This work studies the question of what kind of labels should be collected for the problem of intracranial hemorrhage detection in brain CT. We investigate whether image-level annotations should be preferred to examination-level ones. By framing this task as a multiple instance learning problem, and employing modern attention-based DL architectures, we analyze the degree to which different levels of supervision improve detection performance. We find that strong supervision (i.e., learning with local image-level annotations) and weak supervision (i.e., learning with only global examination-level labels) achieve comparable performance in examination-level hemorrhage detection (the task of selecting the images in an examination that show signs of hemorrhage) as well as in image-level hemorrhage detection (highlighting those signs within the selected images). Furthermore, we study this behavior as a function of the number of labels available during training. Our results suggest that local labels may not be necessary at all for these tasks, drastically reducing the time and cost involved in collecting and curating datasets.
translated by 谷歌翻译
许多微体系式优化为深度神经网络解锁了巨大的处理能力,从而促进了AI革命。随着这种优化的精疲力尽,现代AI的增长现在是通过培训系统的性能,尤其是其数据流动的。我们没有专注于单个加速器,而是研究了全系统规模的大规模培训的数据移动特征。基于我们的工作量分析,我们设计了HammingMesh,这是一种新颖的网络拓扑,以低成本提供高的带宽,并具有很高的工作计划灵活性。具体而言,HammingMesh可以支持具有两个并行性的两个维度的深度学习培训工作的完整带宽和隔离。此外,它还为通用流量的高全球带宽提供支持。因此,HammingMesh将为未来的大规模深度学习系统供电,并具有极端的带宽要求。
translated by 谷歌翻译
在改善机器人的感知和导航方面,已经有很多努力,但是它们在危险环境中的应用,例如在大火或地震期间,仍处于新生的阶段。我们在这里假设两个主要挑战:首先,在现实世界中很难复制这种情况,这对于培训和测试目的是必不可少的。其次,当前的系统无法完全利用这种危险环境中可用的丰富多模式数据。为了应对第一个挑战,我们建议以电影和电视节目的形式利用可用的大量视觉内容,并开发一个可以代表现实世界中遇到的危险环境的数据集。对数据进行注释,并具有对现实灾难图像的高级危险等级,并提供了相应的关键字来汇总场景内容。为了应对第二项挑战,我们提出了针对人类机器人逃生场景的多模式危险估计管道。我们的贝叶斯框架通过融合机器人的相机传感器和人类语言输入的信息来改善危险估计。此外,我们使用具有风险意识的计划者来增强估计模块,该模块有助于识别出危险环境中更安全的道路。通过广泛的模拟,我们展示了多模式感知框架的优势,这些框架被转化为有形的好处,例如在协作人类机器人任务中的成功率更高。
translated by 谷歌翻译
共形预测(CP)是一种多功能的非参数框架,用于量化预测问题中的不确定性。在这项工作中,我们通过首次提出可以应用于时间不断发展的表面,将这种方法扩展到在双变量域上定义的时间序列函数的情况。为了获得有意义有效的预测区域,CP必须与准确的预测算法结合使用,因此,我们扩展了希尔伯特空间中自回旋过程的理论理论,以允许具有双变量域的功能。考虑到该主题的新颖性,我们提出了功能自回旋模型(FAR)的估计技术。实施了仿真研究,以研究不同的点预测因子如何影响所得的预测频段。最后,我们探索了真正数据集中拟议方法的利益和限制,在过去的二十年中,每天都会观察到黑海的海平面异常。
translated by 谷歌翻译
以离散特征为特征的现实世界数据集无处不在:从分类调查到临床问卷,从未加权网络到DNA序列。然而,最常见的无监督尺寸还原方法是为连续空间设计的,它们用于离散空间可能会导致错误和偏见。在这封信中,我们介绍了一种算法来推断离散空间中嵌入数据集的固有维度(ID)。我们证明了它在基准数据集上的准确性,并将其应用于分析物种指纹识别的宏基因组数据集,发现了一个令人惊讶的小ID,这表明尽管序列具有高度的序列性,但进化的压力在低维歧管上行动。' 空间。
translated by 谷歌翻译
机器学习模型,尤其是人工神经网络,越来越多地用于为在各个领域的高风险场景中(从金融服务,公共安全和医疗保健服务)提供信息。尽管神经网络在许多情况下都取得了出色的性能,但它们的复杂性质引起了人们对现实情况下的可靠性,可信赖性和公平性的关注。结果,已经提出了几种A-tostori解释方法来突出影响模型预测的特征。值得注意的是,Shapley的价值 - 一种满足几种理想特性的游戏理论数量 - 在机器学习解释性文献中获得了知名度。然而,更传统上,在统计学习中的特征是通过有条件独立性正式化的,而对其进行测试的标准方法是通过有条件的随机测试(CRT)。到目前为止,有关解释性和特征重要性的这两个观点已被认为是独特的和独立的。在这项工作中,我们表明基于沙普利的解释方法和针对特征重要性的有条件独立性测试密切相关。更确切地说,我们证明,通过类似于CRT的程序实现了一组特定的条件独立性测试,评估了Shapley系数量,以执行特定的条件独立性测试,但用于不同的零假设。此外,获得的游戏理论值上限限制了此类测试的$ p $值。结果,我们授予大型Shapley系数具有精确的统计意义,并具有控制I型错误。
translated by 谷歌翻译
通常用于诊断和研究目的的组织病理学图像中炎症细胞结构的当前研究排除了许多有关活检幻灯片的信息。在自身免疫性疾病中,关于哪种细胞类型参与组织水平的炎症以及它们如何相互作用,仍然存在重大的研究问题。尽管可以使用传统方法来部分回答这些问题,但人工智能方法进行分割和分类提供了一种更有效的方法来了解自身免疫性疾病中炎症的结构,并对新颖见解保持着巨大的希望。在本文中,我们从经验上开发了使用人类组织的皮肌炎活检来检测和鉴定炎症细胞的深度学习方法。我们的方法将分类绩效提高了26%,细分性能提高了5%。我们还提出了一种新颖的后处理自动编码器体系结构,可将细分性能额外提高3%。我们已经在https://github.com/pranavsinghps1/dedl开源了我们的方法和架构
translated by 谷歌翻译
工程设计传统上是手工执行的:专家根据过去的经验做出设计建议,然后对这些建议进行测试以符合某些目标规格。使用所谓的纪律模型首先通过计算机模拟进行合规性测试。这样的模型可以通过有限元分析,多机系统方法等实现。然后,考虑通过该模拟的设计进行物理原型。总体过程可能需要几个月的时间,并且在实践中是一笔巨大的成本。我们已经开发了一个贝叶斯优化系统,用于通过直接优化针对设计参数的目标规范来部分自动化此过程。所提出的方法是计算不需要的高维非线性函数的广义倒数的一般框架,例如梯度信息,这通常是从纪律模型中获得的。我们此外,基于(i)收敛到最佳满足所有指定设计标准的解决方案,或(ii)收敛到最小值解决方案,我们开发了两层收敛标准。我们证明了使用最先进的商业纪律模型的行业设置动机的车辆底盘设计问题所提出的方法。我们表明,所提出的方法是一般,可扩展和高效的,并且可以根据流行的贝叶斯优化软件包中的现有概念和子例程直接实现新颖的收敛标准。
translated by 谷歌翻译
基于视觉的感知任务在机器人技术中扮演着重要角色,促进解决许多具有挑战性的情景的解决方案,例如自动无人驾驶汽车(UAV)的杂技演习以及机器人辅助的高精度手术。大多数以控制为导向的和以自负的感知问题通常是通过利用机器人状态估计作为辅助输入来解决的,尤其是当人工智能进入图片时。在这项工作中,我们建议第一次采用类似的方法(据我们所知),将目标变量引用于外部主题。我们证明了我们的一般和直观方法论如何改善深层卷积神经网络(CNN)的回归性能,并具有模棱两可的问题,例如同类3D姿势估计。通过分析三个高度差异的用例,从用机器人臂抓住到具有袖珍尺寸无人机的人类受试者,我们的结果始终将R2度量提高到+0.514,而不是其无状态基准。最后,我们验证了人类姿势估计任务中闭环自动袋大小的无人机的现场性能。我们的结果表明,在我们的状态CNN的平均绝对误差上,平均降低了24%。
translated by 谷歌翻译