贝叶斯网络中的精确推断非常棘手,并且对相应集团树(CT)中最大集团的大小具有指数依赖性,因此需要近似。基于因子的结合物大小的方法比基于结构的方法更准确,但是昂贵,因为它们涉及大量候选结构或区域图中的信念的推断。我们提出了一种基于增量的建筑 - 上方(ibia)范式的近似推断的替代方法,该方法将贝叶斯网络转换为包含一系列链接的集团森林(SLCTF)的数据结构,并由用户包围的集团尺寸 - 指定值。在此方法的增量构建阶段中,只要集团大小在指定的界限内,CTF是通过向CTF添加变量来逐步构建的。一旦达到集团尺寸约束,CTF中的CTS就会在IBIA的推断阶段进行校准。所得的集团信念在近似阶段使用,以获得较小的集团大小的近似CTF。近似CTF构成了序列中下一个CTF的起点。重复这些步骤,直到将所有变量添加到序列中的CTF中。我们证明,我们用于汇总树的增量结构的算法始终会产生有效的CT,并且我们的近似技术保留了一个集团内变量的共同信念。基于此,我们表明SLCTF数据结构可用于有效的分区功能以及先验和后边缘的近似推断。使用了500多个基准测试该方法,与其他近似方法相比,结果显示出具有竞争力的运行时的误差显着降低。
translated by 谷歌翻译
Scoring the factuality of a generated summary involves measuring the degree to which a target text contains factual information using the input document as support. Given the similarities in the problem formulation, previous work has shown that Natural Language Inference models can be effectively repurposed to perform this task. As these models are trained to score entailment at a sentence level, several recent studies have shown that decomposing either the input document or the summary into sentences helps with factuality scoring. But is fine-grained decomposition always a winning strategy? In this paper we systematically compare different granularities of decomposition -- from document to sub-sentence level, and we show that the answer is no. Our results show that incorporating additional context can yield improvement, but that this does not necessarily apply to all datasets. We also show that small changes to previously proposed entailment-based scoring methods can result in better performance, highlighting the need for caution in model and methodology selection for downstream tasks.
translated by 谷歌翻译
This paper proposes a data and Machine Learning-based forecasting solution for the Telecommunications network-rollout planning problem. Milestone completion-time estimation is crucial to network-rollout planning; accurate estimates enable better crew utilisation and optimised cost of materials and logistics. Using historical data of milestone completion times, a model needs to incorporate domain knowledge, handle noise and yet be interpretable to project managers. This paper proposes partition-based regression models that incorporate data-driven statistical models within each partition, as a solution to the problem. Benchmarking experiments demonstrate that the proposed approach obtains competitive to better performance, at a small fraction of the model complexity of the best alternative approach based on Gradient Boosting. Experiments also demonstrate that the proposed approach is effective for both short and long-range forecasts. The proposed idea is applicable in any context requiring time-series regression with noisy and attributed data.
translated by 谷歌翻译
本文介绍了一种在同时定位和映射(SLAM)框架中进行可靠测量的方法。现有方法在成对的基础上检查一致性或兼容性,但是在成对场景中,许多测量类型都没有足够的约束,以确定是否与其他测量不一致。本文介绍了组-K $一致性最大化(G $ K $ cm),该估计最大的测量值是内部组的一致性。可以为最大的组$ k $一致测量的求解作为广义图上最大集团问题的实例,并可以通过调整电流方法来解决。本文使用模拟数据评估了G $ K $ CM的性能,并将其与以前工作中介绍的成对一致性最大化(PCM)进行比较。
translated by 谷歌翻译
神经辐射场(NERF)的最新进展实现了最新的新型视图合成,并促进了场景特性的密集估计。但是,在非常稀疏的视图下捕获的大型无界场景通常会失败,而场景内容集中在远离相机的情况下,这是典型的现场机器人应用程序。特别是,NERF风格的算法的性能很差:(1)当视图不足而呈姿势多样性的情况不足时,(2)当场景包含饱和度和阴影时,以及(3)当对具有精细结构的大型无界场景进行精心采样时,计算中就会大量强度。本文提出了克隆器,它通过允许从稀疏输入传感器视图中观察到的大型户外驾驶场景来对NERF进行显着改善。这是通过将NERF框架内的占用和颜色学习分离成分别使用LIDAR和相机数据训练的单独的多层感知器(MLP)来实现的。此外,本文提出了一种新的方法,可以在NERF模型旁边构建可区分的3D占用网格图(OGM),并利用此占用网格来改进沿射线的点采样,以在度量空间中进行体积渲染。通过在Kitti数据集的场景上进行的广泛定量和定性实验,本文表明,在新的视图合成和密集的深度预测任务上对稀疏输入数据培训时,所提出的方法在新型视图合成和密集的深度预测任务上都优于最先进的NERF模型。
translated by 谷歌翻译
我们提出了Bipoco,这是一种带有姿势限制的双向轨迹预测指标,用于检测视频中行人的异常活动。与基于特征重建的先前工作相反,我们的工作通过预测他们的未来轨迹并将预测与他们的期望进行比较来确定行人异常事件。我们引入了一组新型的基于姿势的损失,并通过我们的预测指标和利用每个身体关节的预测误差来进行行人异常检测。实验结果表明,我们的Bipoco方法可以检测具有高检测率的行人异常活动(高达87.0%),并且纳入姿势限制有助于区分预测中的正常和异常姿势。这项工作扩展了使用基于预测的方法进行异常检测的当前文献,并可以受益于安全至关重要的应用,例如自动驾驶和监视。代码可从https://github.com/akanuasiegbu/bipoco获得。
translated by 谷歌翻译
视频异常检测是视觉中的核心问题。正确检测和识别视频数据中行人中的异常行为将使安全至关重要的应用,例如监视,活动监测和人类机器人的互动。在本文中,我们建议利用无监督的行人异常事件检测的轨迹定位和预测。与以前的基于重建的方法不同,我们提出的框架依赖于正常和异常行人轨迹的预测误差来在空间和时间上检测异常。我们介绍了有关不同时间尺度的现实基准数据集的实验结果,并表明我们提出的基于轨迹预言的异常检测管道在识别视频中行人的异常活动方面有效有效。代码将在https://github.com/akanuasiegbu/leveraging-trajectory-prediction-for-pedestrian-video-anomaly-detection上提供。
translated by 谷歌翻译
无监督和半监督的ML方法,例如变异自动编码器(VAE),由于其在分离的表述方面的能力以及找到具有复杂实验数据的潜在分类和回归的能力,因此在多个物理,化学和材料科学方面已广泛采用。 。像其他ML问题一样,VAE需要高参数调整,例如,平衡Kullback Leibler(KL)和重建项。但是,训练过程以及由此产生的歧管拓扑和连通性不仅取决于超参数,还取决于训练过程中的演变。由于在高维超参数空间中详尽搜索的效率低下,因此我们在这里探索了一种潜在的贝叶斯优化方法(ZBO)方法,用于用于无监督和半监测的ML的超参数轨迹优化,并证明了连接的ML,并证明VAE具有旋转不变。我们证明了这种方法的应用,用于寻找血浆纳米颗粒材料系统的MNIST和实验数据的联合离散和连续旋转不变表示。已广泛讨论了所提出的方法的性能,它允许对其他ML模型进行任何高维超参数调整或轨迹优化。
translated by 谷歌翻译
我们介绍了自回归文本到图像(Parti)模型的途径,该模型生成高保真的影像图像并支持涉及复杂组成和世界知识的内容丰富的合成。 Parti将文本对图像生成视为类似于机器翻译的序列到序列建模问题,图像令牌的序列是目标输出,而不是其他语言的文本令牌。这种策略自然可以利用大型语言模型的先前工作,通过扩展数据和模型尺寸,能力和性能的持续进展。我们的方法很简单:首先,Parti使用基于变压器的图像令牌VIT-VQGAN将图像编码为离散令牌的序列。其次,我们通过将编码器二次变压器模型缩放到20B参数来实现一致的质量改进,其新的最新零弹药FID得分为7.23,而MS-Coco的FIDED得分为3.22。我们对本地化叙述以及党的详细分析(P2),这是1600多个英语提示的新的整体基准,证明了Parti在各种类别和难度方面的有效性。我们还探索并突出了我们的模型的局限性,以定义和体现关注重点领域以进一步改进。有关高分辨率图像,请参见https://parti.research.google/。
translated by 谷歌翻译
目的:基于知识的计划(KBP)通常涉及培训端到端深度学习模型以预测剂量分布。但是,由于经常使用的医疗数据集规模有限,端到端方法可能与实际限制有关。为了解决这些局限性,我们提出了一种基于内容的图像检索(CBIR)方法,用于根据解剖学相似性检索先前计划的患者的剂量分布。方法:我们提出的CBIR方法训练一种代表模型,该模型可产生患者解剖信息的潜在空间嵌入。然后将新患者的潜在空间嵌入与数据库中以前患者的潜在空间嵌入,以检索剂量分布的图像。该项目的所有源代码均可在GitHub上获得。主要结果:在由我们机构的公开计划和临床计划组成的数据集上评估了各种CBIR方法的检索性能。这项研究比较了各种编码方法,从简单的自动编码器到Simsiam等最新的暹罗网络,并且在Multipask Siamese网络中观察到了最佳性能。意义:应用CBIR告知后续的治疗计划可能会解决与端到端KBP相关的许多限制。我们目前的结果表明,可以通过对先前开发的暹罗网络进行轻微更改来获得出色的图像检索性能。我们希望通过Metaplanner框架等方法将CBIR集成到未来工作中的自动化计划工作流程中。
translated by 谷歌翻译