神经风格转移(NST)与视觉媒体的艺术风格有关。它可以描述为将艺术图像风格转移到普通照片上的过程。最近,许多研究考虑了NST算法的深度保护功能的增强,以解决当输入内容图像包含许多深度的众多对象时发生的不希望的效果。我们的方法使用了一个深层残留卷积网络,并使用实例归一化层,该层利用高级深度预测网络将深度保存作为内容和样式的附加损失函数集成。我们展示了有效保留内容图像的深度和全局结构的结果。三个不同的评估过程表明,我们的系统能够保留风格化结果的结构,同时表现出样式捕捉功能和美学质量,或与最先进的方法相当或优越。项目页面:https://ioannoue.github.io/depth-aware-nst-using-in.html。
translated by 谷歌翻译
卷积神经网络(CNN)越来越多地用于自动化磁共振(MR)图像中脑结构的分割,以进行研究。在其他应用中,CNN模型在训练集中的代表性不足时已显示出对某些人口组的偏见。在这项工作中,我们研究了CNN大脑MR分割模型是否有可能在接受不平衡训练集训练时遏制性别或种族偏见。我们使用白人受试者中不同水平的性不平衡训练快速冲浪模型的多个实例。我们分别评估白人男性和白人女性测试集以评估性别偏见的性能,并在黑人男性和黑人女性测试套装上评估它们,以评估潜在的种族偏见。我们发现分割模型性能中的重大性别和种族偏见效应。这些偏见具有很强的空间成分,一些大脑区域表现出比其他大脑更强的偏见。总体而言,我们的结果表明,种族偏见比性偏见更为重要。我们的研究表明,在为基于CNN的大脑MR分割的训练集时考虑种族和性别平衡的重要性,以避免通过有偏见的研究研究结果来维持甚至加剧现有的健康不平等。
translated by 谷歌翻译
估计深神经网络(DNN)的概括误差(GE)是一项重要任务,通常依赖于持有数据的可用性。基于单个训练集更好地预测GE的能力可能会产生总体DNN设计原则,以减少对试用和错误的依赖以及其他绩效评估优势。为了寻找与GE相关的数量,我们使用无限宽度DNN限制到绑定的MI,研究了输入和最终层表示之间的相互信息(MI)。现有的基于输入压缩的GE绑定用于链接MI和GE。据我们所知,这代表了该界限的首次实证研究。为了实证伪造理论界限,我们发现它通常对于表现最佳模型而言通常很紧。此外,它在许多情况下检测到训练标签的随机化,反映了测试时间扰动的鲁棒性,并且只有很少的培训样本就可以很好地工作。考虑到输入压缩是广泛适用的,可以在信心估算MI的情况下,这些结果是有希望的。
translated by 谷歌翻译
从样本中学习概率分布的任务在整个自然科学中无处不在。局部量子电路的输出分布构成了一类特别有趣的分布类别,对量子优势提案和各种量子机学习算法都具有关键的重要性。在这项工作中,我们提供了局部量子电路输出分布的可学习性的广泛表征。我们的第一个结果可以深入了解这些分布的有效学习性与有效的可模拟性之间的关系。具体而言,我们证明与Clifford电路相关的密度建模问题可以有效地解决,而对于深度$ d = n^{\ omega(1)} $电路,将单个$ t $ gate注入到电路中,这使这是如此问题很难。该结果表明,有效的模拟性并不意味着有效的可学习性。我们的第二组结果提供了对量子生成建模算法的潜在和局限性的见解。我们首先证明与深度$ d = n^{\ omega(1)} $局部量子电路相关的生成建模问题对于任何学习算法,经典或量子都很难。结果,一个人不能使用量子算法来为此任务获得实际优势。然后,我们证明,对于各种最实际相关的学习算法(包括混合量词古典算法),即使是与深度$ d = \ omega(\ log(n))$ Clifford Circuits相关的生成建模问题也是如此难的。该结果对近期混合量子古典生成建模算法的适用性造成了限制。
translated by 谷歌翻译
我们考虑在微观级别的坡道计量,但受车辆安全限制的约束。交通网络由带有多个在越野和外坡道的环路抽象。车辆到达坡道的到达时间及其目的地外坡道是由外源随机过程建模的。一旦车辆从坡道上释放出来,如果没有另一辆车阻塞,它就会加速自由流速。一旦它靠近另一辆车,便会采用安全的行为。车辆到达目的地外坡道后,车辆将退出交通网络。我们设计流量响应的坡道计量策略,以最大程度地提高网络的饱和区域。策略的饱和区域定义为一组需求,即到达率和路由矩阵,所有坡道的队列长度都在预期中保持限制。提出的坡道计量策略是在同步循环下运行的,在此期间,坡道在周期开始时不会释放更多的车辆长度。我们提供三个策略,分别在周期结束时分别暂停每个坡度(i)暂停时间间隔,或(ii)在周期内调节释放率,或(iii)采用保守的安全性在周期中释放的标准。但是,所有政策都不需要有关需求的信息。这些策略的饱和区域的特征是研究诱导的马尔可夫链的随机稳定性,当所有坡道的合并速度等于自由流速时,被证明是最大的。提供模拟以说明政策的性能。
translated by 谷歌翻译
以任务为导向的对话系统通常采用对话状态跟踪器(DST)成功完成对话。最近的最新DST实现依赖于各种服务的模式来改善模型的鲁棒性并处理对新域的零击概括[1],但是这种方法[2,3]通常需要多个大型变压器模型和长时间输入序列以表现良好。我们提出了一个基于多任务BERT的单个模型,该模型共同解决了意图预测的三个DST任务,请求的插槽预测和插槽填充。此外,我们提出了对对话历史和服务模式的高效和简约编码,该编码被证明可以进一步提高性能。对SGD数据集的评估表明,我们的方法的表现优于基线SGP-DST,比最新的方法相比表现良好,同时在计算上的效率更高。进行了广泛的消融研究,以检查我们模型成功的促成因素。
translated by 谷歌翻译
深度神经网络无法推广到分布数据是一个众所周知的问题,并引起了人们对在安全关键领域(例如医疗保健,金融和自动驾驶汽车)部署训练的网络的担忧。我们研究了一种特定的分销偏移$ \ unicode {x2013} $快捷方式或培训数据中的虚假相关性。快捷方式学习通常仅在对不包含相同伪造相关性的现实世界数据进行评估时才能暴露出来,这使AI从业人员适当评估训练有素的现实世界应用模型的有效性构成了严重的困境。在这项工作中,我们建议在学习的表示和输入之间使用共同信息(MI)作为指标,以查找培训中的位置,网络锁定在快捷方式上。实验表明,MI可以用作监测快捷方式学习的域敏捷度量。
translated by 谷歌翻译
大脑提取是预处理3D脑MRI数据的第一步之一。它是任何即将进行的大脑成像分析的先决条件。但是,由于大脑和人头的复杂结构,这并不是一个简单的分割问题。尽管文献中已经提出了多种解决方案,但我们仍然没有真正强大的方法。尽管以前的方法已将机器学习与结构/几何先验使用,但随着计算机视觉任务中深度学习的发展,对于此语义分割任务,建议的卷积神经网络体系结构有所增加。但是,大多数模型都致力于改善培训数据和损失功能,而架构的变化很小。在本文中,我们提出了一种称为EVC-NET的新颖架构。 EVC-NET在每个编码器块上添加了较低的比例输入。这增强了V-NET体系结构的多尺度方案,从而提高了模型的效率。有条件的随机字段,是深度学习时代之前的图像分割的一种流行方法,在这里重新引入,作为完善网络输出以捕获细分粒度结果的额外步骤。我们将我们的模型与HD-BET,Synthstrip和Brainy等最新方法进行比较。结果表明,即使训练资源有限,EVC-NET也可以达到更高的骰子系数和Jaccard指数以及较低的表面距离。
translated by 谷歌翻译
自我监督学习的最新进步降低了监督和无监督的代表学习之间的差距。然而,大多数自我监督和深度聚类技术严重依赖于数据增强,使它们无效,对于许多学习任务,域名知识存在不足以进行增强的学习任务。我们提出了一种新的域 - 无症集群的自蒸馏算法。我们的方法在现有的深度聚类框架上构建,不需要单独的学生模型。所提出的方法优于CIFAR-10上现有的现有域不可知(增强)算法。我们经验证明,知识蒸馏可以通过从模型中提取比单独使用预测的标签来改善来自模型的更丰富的“黑暗知识”来改善无监督的代表学习。初步实验还表明,自蒸馏改善了DeepCluster-V2的收敛性。
translated by 谷歌翻译