在过去的十年中,由于雷达目的的现场特异性,高保真射频(RF)建模和仿真工具的催化,在过去的十年中,经典方法的数据驱动公式迅速增长。尽管有这种激增,但有限的焦点已针对这些经典方法的理论基础。在这方面,作为我们正在进行的数据驱动的雷达时空自适应处理方法(Stap)的一部分,我们在雷达目标定位的背景下分析了精选子空间分离方法的渐近性能保证,并通过拟议目标位置估计的深度学习框架。在我们的方法中,我们通过使用RFView(由ISL Inc.开发的一个特定于站点的RF建模和模拟工具)将可变强度的目标随机放置在预定的约束区域中。在范围内,方位角和归一化自适应匹配过滤器(NAMF)测试统计量以及广义Sidelobe canceller(GSC)的输出功率的高度。使用我们的深度学习框架,我们从这些热图张量估算目标位置,以证明我们数据驱动方法在匹配和不匹配的设置中提供的可行性和显着改进。
translated by 谷歌翻译
Through their transfer learning abilities, highly-parameterized large pre-trained language models have dominated the NLP landscape for a multitude of downstream language tasks. Though linguistically proficient, the inability of these models to incorporate the learning of non-linguistic entities (numerals and arithmetic reasoning) limits their usage for tasks that require numeric comprehension or strict mathematical reasoning. However, as we illustrate in this paper, building a general purpose language model that also happens to be proficient in mathematical reasoning is not as straight-forward as training it on a numeric dataset. In this work, we develop a novel framework that enables language models to be mathematically proficient while retaining their linguistic prowess. Specifically, we offer information-theoretic interventions to overcome the catastrophic forgetting of linguistic skills that occurs while injecting non-linguistic skills into language models.
translated by 谷歌翻译
我们审查在机器学习(ML)中使用差异隐私(DP)对隐私保护的使用。我们表明,在维护学习模型的准确性的驱动下,基于DP的ML实现非常宽松,以至于它们不提供DP的事前隐私保证。取而代之的是,他们提供的基本上是与传统(经常受到批评的)统计披露控制方法相似的噪声。由于缺乏正式的隐私保证,因此所提供的实际隐私水平必须经过实验评估,这很少进行。在这方面,我们提出的经验结果表明,ML中的标准反拟合技术可以比DP实现更好的实用性/隐私/效率权衡。
translated by 谷歌翻译
对自然语言任务的预磨削变压器模型(PTMS)的广泛适用性得到了很好的展示,但它们理解短语短语的能力不太探讨。为此,我们从横跨5个特征的面向任务对话框中链接的无监督实体镜头评估不同的PTMS - 句法,语义,短语,数字和语音。我们的结果表明,与传统技术相比,几种PTM产生了亚映射结果,尽管对其他神经基线具有竞争力。我们发现,通过使用PTMS微调的文本相似性任务可以解决一些缺点,这说明了理解语义和句法对应的能力,以及实体的短语,数字和语音变化的一些改进提到。我们进行定性分析,以了解他们预测中的细微差别,并讨论进一步改进的范围。可以在https://github.com/murali1996/el_tod找到代码
translated by 谷歌翻译