In this technical note, we introduce an improved variant of nearest neighbors for counterfactual inference in panel data settings where multiple units are assigned multiple treatments over multiple time points, each sampled with constant probabilities. We call this estimator a doubly robust nearest neighbor estimator and provide a high probability non-asymptotic error bound for the mean parameter corresponding to each unit at each time. Our guarantee shows that the doubly robust estimator provides a (near-)quadratic improvement in the error compared to nearest neighbor estimators analyzed in prior work for these settings.
translated by 谷歌翻译
We consider after-study statistical inference for sequentially designed experiments wherein multiple units are assigned treatments for multiple time points using treatment policies that adapt over time. Our goal is to provide inference guarantees for the counterfactual mean at the smallest possible scale -- mean outcome under different treatments for each unit and each time -- with minimal assumptions on the adaptive treatment policy. Without any structural assumptions on the counterfactual means, this challenging task is infeasible due to more unknowns than observed data points. To make progress, we introduce a latent factor model over the counterfactual means that serves as a non-parametric generalization of the non-linear mixed effects model and the bilinear latent factor model considered in prior works. For estimation, we use a non-parametric method, namely a variant of nearest neighbors, and establish a non-asymptotic high probability error bound for the counterfactual mean for each unit and each time. Under regularity conditions, this bound leads to asymptotically valid confidence intervals for the counterfactual mean as the number of units and time points grows to $\infty$.
translated by 谷歌翻译
在分发压缩中,一个目标是使用少量代表点准确地总结$ \ mathbb {p} $。近乎最佳的稀释程序通过从马尔可夫链中的$ n $积分来实现这一目标,并使用$ \ widetilde {\ mathcal {o}}识别$ \ sqrt {n} $ points(1 / sqrt {n})$差异$ \ mathbb {p} $。不幸的是,这些算法患有样本大小$ N $的二次或超级二次运行时。为了解决这一缺陷,我们介绍了一种简单的元过程,用于加速任何细化算法,同时遭遇最多为4美元的次数为4美元。与DWivedi和Mackey的二次时间内核半核节点和内核变薄算法相结合(2021),Compress ++以$ \ mathcal {o}提供$ \ sqrt {n} $ points(\ sqrt {\ log n / n})$ Integration error和monte-monte-carlo在$ \ mathcal {o}中的最大意义差异差异(n \ log ^ 3 n)$ time和$ \ mathcal {o}(\ sqrt {n} \ log ^ 2 n)$空间。此外,Compress ++享受相同的近线性运行时给出任何二次时间输入并通过平方根数减少超级二次算法的运行时间。在我们的基准测试中,具有高维蒙特卡罗样本和马尔可夫链瞄准具有挑战性的微分方程后海底,压缩++匹配或几乎匹配其输入算法的准确性在较少时间的时间顺序。
translated by 谷歌翻译
Dwivedi和Mackey(2021)的核细化(kt)算法(2021)通过瞄准再现内核希尔伯特空间(RKHS)来更有效地压缩概率分布,并且通过瞄准再现内核Hilbert空间(RKHS)并利用较小的平方根根内核。在这里,我们提供了四种改进。首先,我们表明KT直接应用于目标RKHS,对任何内核,任何分布和RKHS中的任何固定功能都没有收益,无维保证。其次,我们表明,对于像高斯,反向多资本和SINC等分析核,目标KT承认最大平均差异(MMD)的保证与平方根KT相当的保证,而无需明确地使用平方根内核。第三,我们证明KT与分数电源内核产生了更好的Monte-Carlo MMD保证非平滑内核,如Laplace和Mat'ern,没有方形根源。第四,我们建立了kt应用于目标和电源内核的总和(我们呼叫kt +的程序)同时继承了Power Kt的改进的MMD保证和目标KT的更严格的各个功能保证。在我们的目标KT和KT +的实验中,我们目睹了甚至以100美元的尺寸,并且在压缩挑战微分方程后面时,我们目睹了整合误差的显着改进。
translated by 谷歌翻译
我们介绍内核变薄,更有效地压缩了一个新的程序,而不是i.i.d. \采样或标准变薄。给定合适的再现内核$ \ mathbf {k} $和$ \ mathcal {o}(n ^ 2)$ time,内核变薄将$ n $ thepoint近似压缩为$ \ mathbb {p} $ to to $ \ sqrt {n} $ - 点近似与相关的再现内核希尔伯特空间相比的可比最坏情况集成错误。具有高概率,集成错误中的最大差异是$ \ mathcal {o} _d(n ^ { - 1/2} \ sqrt {\ log n})$,用于紧凑地支持$ \ mathbb {p} $和$ \ mathcal {o} _d(n ^ { - \ frac {1} {2}}(\ log n)^ {(d + 1)/ 2} \ sqrt {\ log \ log n})$ for子指数$ \ $ \ mathbb {r} ^ d $上的mathbb {p} $。相反,来自$ \ mathbb {p} $ \ oomega(n ^ { - 1/4})$ Integration错误的平等大小。我们的子指数保证类似于统一$ \ mathbb {p} $ on $ [0,1] ^ d $的典型准蒙特卡洛错误速率,但适用于$ \ mathbb {r} ^ d $和a的常规发行版广泛的常见内核。我们使用我们的结果推导出Gaussian,Mat \'ern和B样曲线内部的显式非渐近最大平均差异界限,并提出了两个渐晕,说明了内核变薄的实际益处,而\采样和标准马尔可夫链蒙特卡罗稀疏,尺寸$ d = 2美元到100美元。
translated by 谷歌翻译
我们研究一类弱识别的位置尺度混合模型,其中基于$ N $ i.d.d的最大似然估计。已知样品具有比经典$ N ^ { - \ frac {1} {2}} $错误的较低的精度。我们调查期望 - 最大化(EM)算法是否也会缓慢收敛这些模型。我们为EM提供了严格的表征,用于在一个单变量的环境中拟合弱识别的高斯混合物,其中我们证明EM算法以$ N ^ {\ FRAC {3} {4}} $步骤汇聚,并返回A处的估计欧几里德订单距离$ {n ^ { - \ frac {1} {8}}} $和$ {n ^ { - \ frac {1} {4}} {4}} {4}}分别从真实位置和比例参数。建立单变量环境中的缓慢速率需要具有两个阶段的新型本地化参数,每个阶段都涉及以人口水平应用于不同代理EM操作员的划分基于epoch的参数。我们展示了几种多元($ d \ geq 2 $)的例子,表现出与单变量案件相同的缓慢。当拟合协方差受到限制为身份的倍数时,我们还在特殊情况下在特殊情况下以更高的尺寸证明了更高的统计率。
translated by 谷歌翻译
考虑到安全至关重要自动化系统中情境意识的功能,对驾驶场景的风险及其解释性的感知对于自主和合作驾驶特别重要。为了实现这一目标,本文提出了在驾驶场景中的共同风险定位的新研究方向及其作为自然语言描述的风险解释。由于缺乏标准基准,我们收集了一个大规模数据集,戏剧性(带有字幕模块的驾驶风险评估机制),该数据集由17,785个在日本东京收集的互动驾驶场景组成。我们的戏剧数据集适用于带有相关重要对象的驾驶风险的视频和对象级别的问题,以实现视觉字幕的目标,作为一种自由形式的语言描述,利用封闭式和开放式响应用于多层次问题,可以用来使用这些响应,可用于在驾驶场景中评估一系列视觉字幕功能。我们将这些数据提供给社区以进行进一步研究。使用戏剧,我们探索了在互动驾驶场景中的联合风险定位和字幕的多个方面。特别是,我们基准了各种多任务预测架构,并提供了关节风险定位和风险字幕的详细分析。数据集可在https://usa.honda-ri.com/drama上获得
translated by 谷歌翻译
自2016年成立以来,Alexa奖计划使数百名大学生能够通过Socialbot Grand Challenge探索和竞争以发展对话代理商。挑战的目的是建立能够与人类在流行主题上连贯而诱人的代理人20分钟,同时达到至少4.0/5.0的平均评分。但是,由于对话代理商试图帮助用户完成日益复杂的任务,因此需要新的对话AI技术和评估平台。成立于2021年的Alexa奖Taskbot Challenge建立在Socialbot Challenge的成功基础上,通过引入交互式协助人类进行现实世界烹饪和做自己动手做的任务的要求,同时同时使用语音和视觉方式。这项挑战要求TaskBots识别和理解用户的需求,识别和集成任务和域知识,并开发新的方式,不分散用户的注意力,而不必分散他们的任务,以及其他挑战。本文概述了Taskbot挑战赛,描述了使用Cobot Toolkit提供给团队提供的基础架构支持,并总结了参与团队以克服研究挑战所采取的方法。最后,它分析了比赛第一年的竞争任务机器人的性能。
translated by 谷歌翻译
我们提出了一种方法,用于在主动电分布网络中考虑使用脆弱节点识别的最佳DERS分配,并将这些节点命名为关键节点。这些关键节点的功率变化将显着影响其他链接节点的运行,因此这些节点适合使用,并且认为最适合DERS放置。我们在标准的IEEE-123测试馈线系统中证明了我们的方法评估。最初,我们使用图理论将分布系统划分为最佳微电网网络。使用图神经网络体系结构对分区进行了验证,以适当形成微电网。此外,使用有效的可测量分析(例如Granger因果关系),我们确定了分区的微电网中的关键节点和在这些节点上的DERS放置,从而提高了网络可靠性和弹性。此外,为了验证系统性能和能量弹性,我们计算了微电网网络的渗透阈值,该网络指示了在这些关键节点上掺入DER后系统弹性。这项提出的有关首先的方法可确保通过分布网络中数据驱动的分析方法来确定有效的微电网分配,关键节点的识别,最佳DERS分配和系统弹性评估。
translated by 谷歌翻译
最近,电分配系统被分布式能源(DER)广泛渗透,以满足能量需求,以一般的看法,即增强系统的弹性。但是,由于其间歇性可用性,天气状况的动态,非线性,复杂性的引入等各种因素,这可能是不利的。这需要对我们的方法在这里提出的对系统弹性的详细理解。我们介绍了一种使用复杂网络理论的方法,以确定与太阳能PV生成在各种不良配置下合并时分配系统的弹性。获得了不同条件的复杂相关网络,并计算了各种网络参数以识别这些网络的弹性。所提出的方法可以确定系统中太阳能电池板的托管能力,同时在不同的不需要条件下保持弹性有助于获得系统中太阳能电池板的最佳分配拓扑。所提出的方法还标识了对变化高度敏感的关键节点,并可能将系统推向非弹性。该框架在IEEE-123测试馈线系统上使用了使用GridLab-D生成的时间序列数据,并使用复杂的网络和机器学习模型进行了多种分析。
translated by 谷歌翻译