人们利用小组讨论进行协作以解决复杂的任务,例如在项目会议或招聘面板中。通过这样做,他们参与了各种对话策略,他们试图相互说服最佳方法,并最终做出决定。在这项工作中,我们研究了检测是什么使某人改变主意的方法。为此,我们利用了最近介绍的数据集,其中包含有关解决任务的人协作的小组讨论。为了找出使某人改变主意的原因,我们结合了各种技术,例如神经文本分类和语言不足的变化点检测。对这些方法的评估表明,虽然任务并非微不足道,但最好的方法是使用与学习级别培训的语言感知模型。最后,我们研究了模型发展为改变主意的原因的线索。
translated by 谷歌翻译
我们提出了一个通用,灵活和可扩展的框架DPART,这是一个开源python库,用于私人合成数据生成。该方法的核心是自回旋建模 - 将联合数据分布分配到一系列较低维的条件分布序列,这些分布由各种方法(例如机器学习模型(逻辑/线性回归,决策树)等)捕获,简单直方图,简单直方图,或定制技术。该图书馆的创建是为了作为快速且可访问的基线以及容纳广泛的用户,从综合数据生成的第一步到具有域专业知识的经验丰富的人,他们可以配置不同方面建模并贡献新的方法/机制。DPART的特定实例包括独立,优化版本的Privbayes和新提出的模型DP-SynthPop。代码:https://github.com/hazy/dpart
translated by 谷歌翻译
本文使用基于实例分割和图形匹配的LIDAR点云进行了极强和轻量级的定位。我们将3D点云建模为在语义上识别的组件的完全连接图,每个顶点对应于对象实例并编码其形状。跨图的最佳顶点关联允许通过测量相似性进行完整的6度自由(DOF)姿势估计和放置识别。这种表示非常简洁,将地图的大小缩合为25倍,而最先进的图像仅需要3KB代表1.4MB激光扫描。我们验证了系统在Semantickitti数据集中的功效,在该数据集中,我们获得了新的最新识别,平均召回了88.4%的召回,而下一个最接近的竞争对手则为64.9%。我们还显示了准确的度量姿势估计性能 - 估计中位误差为10 cm和0.33度的6 -DOF姿势。
translated by 谷歌翻译
生成的对抗网络(GANS)是生成综合数据,尤其是图像的最流行的方法之一,用于数据共享目的。鉴于在原始数据中保留各个数据点隐私至关重要的重要意义,GAN培训利用具有差异隐私保障(如差异隐私(DP)等强大隐私保证的框架。然而,当呈现有不平衡的数据集时,这些方法仍然超越单个性能指标之外。为此,我们系统地将培训的Gans与两个透视图的不同数据不平衡设置中的两个最着名的DP框架培训培训 - 从两个透视图 - 生成的合成数据和它们的类别中的类别分类绩效。我们的分析表明,与DP-SGD类似,应用头脑对下面的/超代表的类别具有不同的影响,但在更温和的幅度下使其更加强大。有趣的是,我们的实验一直表明,对于PITE,与DP-SGD不同,隐私式实用权折衷不是单调递减,而是更平滑和倒置U形,这意味着增加了小程度的隐私实际上有助于泛化。但是,我们还确定了一些设置(例如,大不平衡),Pate-GaN完全无法学习培训数据的一些子部分。
translated by 谷歌翻译
接受差异隐私(DP)训练的生成模型可用于生成合成数据,同时最大程度地降低隐私风险。我们分析了DP对数据的影响不足的数据/子组的影响,特别是研究:1)合成数据中类/子组的大小和2)分类任务的准确性在其上运行。我们还评估了各种不平衡和隐私预算的影响。我们的分析使用了三种最先进的DP模型(Privbayes,DP-WGAN和PATE-GAN),并表明DP在生成的合成数据中产生相反的大小分布。它影响了多数族裔和少数族裔/亚组之间的差距;在某些情况下,通过减少它(一种“罗宾汉”效应),而在其他情况下则通过增加它(一种“马修”效应)。无论哪种方式,这都会导致(类似)对合成数据的分类任务准确性的(类似)不同的影响,从而更加不成比例地影响了代表性不足的数据。因此,当培训模型对合成数据时,可能会导致不均匀地处理不同亚群的风险,从而得出不可靠或不公平的结论。
translated by 谷歌翻译