尽管在计算机视觉中的深度学习成功,但识别微妙和小物体(或地区)的算法仍然具有挑战性。例如,识别棒球或在地面场景中的飞盘或X射线图像中的骨折可以容易地导致过度装备,除非有大量的训练数据。为缓解此问题,我们需要一种方法来强制模型应该在有限的培训数据中识别微妙地区。在本文中,我们提出了一种称为Cut \&Rest的简单但有效的监督增强方法。它在各种医学图像域(内部资源和公共数据集)和自然图像域(MS-Coco $ _S $)中取得了更好的性能,而不是其他监督的增强和明确的指导方法。此外,使用类激活图,我们确定了剪切\和保持方法驱动模型,以有效地专注于相关的微妙和小区域。我们还表明,沿着切割\和保持比单调增加的性能,表明即使仅应用了有限量的切割量,也可以提高模型,从而允许改进的低监督(注释)成本。
translated by 谷歌翻译
尽管最近的凝视估计方法非常重视从面部或眼睛图像中提取与目光相关的特征,但如何定义包括凝视相关组件在内的特征是模棱两可的。这种模糊性使该模型不仅学习了与之相关的功能,而且还学会了无关紧要的功能。特别是,这对于跨数据库的性能是致命的。为了克服这个具有挑战性的问题,我们提出了一种基于数据驱动的方法,该方法具有数据驱动的方法,该方法具有生成的对抗网络反转的分解特征,以选择性地利用潜在代码中的目光相关特征。此外,通过利用基于GAN的编码器生成过程,我们将输入图像从目标域转移到源域图像,而凝视估计器充分了解了。此外,我们建议在编码器中凝视失真损失,以防止凝视信息的失真。实验结果表明,我们的方法在跨域凝视估计任务中实现了最新的凝视估计精度。该代码可在https://github.com/leeisack/latentgaze/上找到。
translated by 谷歌翻译
尽管已经通过深度学习技术开发了凝视估计方法,但没有采取诸如以50像素或更少的像素宽度或更少的像素宽度的低分辨率面部图像中准确性能的方法。为了在具有挑战性的低分辨率条件下解决限制,我们提出了高频专注的超级分辨凝视估计网络,即Haze-Net。我们的网络改善了输入图像的分辨率,并通过基于高频注意力块提出的超级分辨率模块增强了眼睛特征和这些边界。此外,我们的凝视估计模块利用眼睛的高频组件以及全球外观图。我们还利用面部的结构位置信息来近似头姿势。实验结果表明,即使在具有28x28像素的低分辨率面部图像中,提出的方法也表现出强大的凝视估计性能。该工作的源代码可在https://github.com/dbseorms16/haze_net/上获得。
translated by 谷歌翻译
联合学习(FL)是一种机器学习(ML)技术,旨在减少对用户数据隐私的威胁。培训是使用用户设备上的原始数据(称为客户端)进行的,只有称为梯度的培训结果被发送到服务器进行汇总并生成更新的模型。但是,我们不能假设可以使用私人信息来信任服务器,例如与数据所有者或数据源相关的元数据。因此,将客户信息隐藏在服务器中有助于减少与隐私相关的攻击。因此,客户身份的隐私以及客户数据的隐私是使此类攻击更加困难的必要条件。本文提出了基于组签名的FL的高效和隐私权协议。一个名为GSFL的新组合签名旨在保护客户数据和身份的隐私,而且考虑考虑到联合学习的迭代过程,还大大降低了计算和通信成本。我们表明,在计算,通信和信号成本方面,GSFL优于现有方法。另外,我们表明所提出的协议可以在联合学习环境中处理各种安全攻击。
translated by 谷歌翻译
为了有效地使用导航系统,诸如深度传感器的距离信息传感器是必不可少的。由于深度传感器难以在内窥镜检查中使用,因此许多组提出了一种使用卷积神经网络的方法。在本文中,通过通过CT上扫描模型分段的结肠模型通过内窥镜模拟产生深度图像和内窥镜图像的基础事实。可以使用SIM-to-Real方法使用Corpergan用于内窥镜检查图像来创建照片逼真的模拟图像。通过训练生成的数据集,我们提出了定量内窥镜检查深度估计网络。该方法代表了比现有无监督的基于培训的结果更好的评估得分。
translated by 谷歌翻译
随着3D数据的可用性增加,对解决方案处理的需求也迅速增加。然而,将尺寸添加到已经可靠地准确的2D方法导致巨大的内存消耗和更高的计算复杂性。这些问题导致当前的硬件达到其限制,大多数方法都强制降低输入分辨率。我们的主要贡献是一种新的深度3D语义分段方法,用于行李CT扫描中的枪支检测,使得能够快速训练和低视频内存消耗,用于高分辨率的体积尺寸。我们介绍了一种移动的金字塔方法,它在推理时间内使用多个向前通过,以分割实例。
translated by 谷歌翻译
基于电动机图像(MI)的脑电脑界面(BCIS)允许通过解码神经生理现象来控制几种应用,这些现象通常通过使用非侵入性技术被脑电图(EEG)记录。尽管在基于MI的BCI的进展方面很大,但脑电图有特定于受试者和各种变化随时间。这些问题指出了提高分类绩效的重大挑战,特别是在独立的方式。为了克服这些挑战,我们提出了Min2Net,这是一个新的端到端多任务学习来解决这项任务。我们将深度度量学习集成到多任务AutoEncoder中,以从脑电图中学习紧凑且识别的潜在表示,并同时执行分类。这种方法降低了预处理的复杂性,导致EEG分类的显着性能改善。实验结果以本语独立的方式表明,MIN2Net优于最先进的技术,在SMR-BCI和OpenBMI数据集中分别实现了6.72%的F1分数提高,以及2.23%。我们证明MIN2NET在潜在代表中提高了歧视信息。本研究表明使用此模型的可能性和实用性为新用户开发基于MI的BCI应用,而无需校准。
translated by 谷歌翻译
The 3D-aware image synthesis focuses on conserving spatial consistency besides generating high-resolution images with fine details. Recently, Neural Radiance Field (NeRF) has been introduced for synthesizing novel views with low computational cost and superior performance. While several works investigate a generative NeRF and show remarkable achievement, they cannot handle conditional and continuous feature manipulation in the generation procedure. In this work, we introduce a novel model, called Class-Continuous Conditional Generative NeRF ($\text{C}^{3}$G-NeRF), which can synthesize conditionally manipulated photorealistic 3D-consistent images by projecting conditional features to the generator and the discriminator. The proposed $\text{C}^{3}$G-NeRF is evaluated with three image datasets, AFHQ, CelebA, and Cars. As a result, our model shows strong 3D-consistency with fine details and smooth interpolation in conditional feature manipulation. For instance, $\text{C}^{3}$G-NeRF exhibits a Fr\'echet Inception Distance (FID) of 7.64 in 3D-aware face image synthesis with a $\text{128}^{2}$ resolution. Additionally, we provide FIDs of generated 3D-aware images of each class of the datasets as it is possible to synthesize class-conditional images with $\text{C}^{3}$G-NeRF.
translated by 谷歌翻译
Cellular automata (CA) captivate researchers due to teh emergent, complex individualized behavior that simple global rules of interaction enact. Recent advances in the field have combined CA with convolutional neural networks to achieve self-regenerating images. This new branch of CA is called neural cellular automata [1]. The goal of this project is to use the idea of idea of neural cellular automata to grow prediction machines. We place many different convolutional neural networks in a grid. Each conv net cell outputs a prediction of what the next state will be, and minimizes predictive error. Cells received their neighbors' colors and fitnesses as input. Each cell's fitness score described how accurate its predictions were. Cells could also move to explore their environment and some stochasticity was applied to movement.
translated by 谷歌翻译
There is a dramatic shortage of skilled labor for modern vineyards. The Vinum project is developing a mobile robotic solution to autonomously navigate through vineyards for winter grapevine pruning. This necessitates an autonomous navigation stack for the robot pruning a vineyard. The Vinum project is using the quadruped robot HyQReal. This paper introduces an architecture for a quadruped robot to autonomously move through a vineyard by identifying and approaching grapevines for pruning. The higher level control is a state machine switching between searching for destination positions, autonomously navigating towards those locations, and stopping for the robot to complete a task. The destination points are determined by identifying grapevine trunks using instance segmentation from a Mask Region-Based Convolutional Neural Network (Mask-RCNN). These detections are sent through a filter to avoid redundancy and remove noisy detections. The combination of these features is the basis for the proposed architecture.
translated by 谷歌翻译