最近,疾病控制和预防中心(CDC)与其他联邦机构合作,以鉴定冠心病疾病2019年(Covid-19)发病率(热点)的县,并为当地卫生部门提供支持,以限制疾病的传播。了解热点事件的时空动态非常重视支持政策决策并防止大规模爆发。本文提出了一种时空贝叶斯框架,用于早期检测美国Covid-19热点(在县级)。我们假设观察到的病例和热点都依赖于一类潜随机变量,其编码Covid-19传输的底层时空动态。这种潜在的变量遵循零均值高斯过程,其协方差由非静止内核功能指定。我们内核功能的最突出的特征是引入深度神经网络,以增强模型的代表性,同时仍然享有内核的可解释性。我们得出了一种稀疏的模型,并使用变分的学习策略适合模型,以规避大数据集的计算诡计。与其他基线方法相比,我们的模型展示了更好的解释性和优越的热点检测性能。
translated by 谷歌翻译
Computer graphics, 3D computer vision and robotics communities have produced multiple approaches to represent and generate 3D shapes, as well as a vast number of use cases. However, single-view reconstruction remains a challenging topic that can unlock various interesting use cases such as interactive design. In this work, we propose a novel framework that leverages the intermediate latent spaces of Vision Transformer (ViT) and a joint image-text representational model, CLIP, for fast and efficient Single View Reconstruction (SVR). More specifically, we propose a novel mapping network architecture that learns a mapping between deep features extracted from ViT and CLIP, and the latent space of a base 3D generative model. Unlike previous work, our method enables view-agnostic reconstruction of 3D shapes, even in the presence of large occlusions. We use the ShapeNetV2 dataset and perform extensive experiments with comparisons to SOTA methods to demonstrate our method's effectiveness.
translated by 谷歌翻译
脑小血管疾病的成像标记提供了有关脑部健康的宝贵信息,但是它们的手动评估既耗时又受到实质性内部和间际变异性的阻碍。自动化评级可能受益于生物医学研究以及临床评估,但是现有算法的诊断可靠性尚不清楚。在这里,我们介绍了\ textIt {血管病变检测和分割}(\ textit {v textit {where valdo?})挑战,该挑战是在国际医学图像计算和计算机辅助干预措施(MICCAI)的卫星事件中运行的挑战(MICCAI) 2021.这一挑战旨在促进大脑小血管疾病的小而稀疏成像标记的自动检测和分割方法的开发,即周围空间扩大(EPVS)(任务1),脑微粒(任务2)和预先塑造的鞋类血管起源(任务3),同时利用弱和嘈杂的标签。总体而言,有12个团队参与了针对一个或多个任务的解决方案的挑战(任务1 -EPVS 4,任务2 -Microbleeds的9个,任务3 -lacunes的6个)。多方数据都用于培训和评估。结果表明,整个团队和跨任务的性能都有很大的差异,对于任务1- EPV和任务2-微型微型且对任务3 -lacunes尚无实际的结果,其结果尤其有望。它还强调了可能阻止个人级别使用的情况的性能不一致,同时仍证明在人群层面上有用。
translated by 谷歌翻译
在GAN的潜在空间中发现有意义的方向来操纵语义属性通常需要大量标记的数据。最近的工作旨在通过利用对比语言图像预训练(CLIP),联合文本图像模型来克服这种限制。在有希望的同时,这些方法需要几个小时的预处理或培训来达到所需的操纵。在本文中,我们展示了Stylemc,一种快速有效的文本驱动图像生成和操纵方法。 Stylemc使用基于剪辑的丢失和身份丢失来通过单个文本提示来操纵图像,而不会显着影响其他属性。与现有工作不同,Stylemc只需要几秒钟的每个文本提示培训,以找到稳定的全局方向,不需要提示工程,可以与任何预先训练的样式模型一起使用。我们展示了我们方法的有效性,并将其与最先进的方法进行比较。我们的代码可以在http://catlab-team.github.io/stylemc找到。
translated by 谷歌翻译
最近,在预训练的GANS的潜在空间中发现可解释的方向已成为一个流行的话题。虽然现有的工作主要是考虑语义图像操纵的指示,我们专注于抽象财产:创造力。我们可以操纵图像或更少的创意吗?我们在最大的基于AI的创造力平台,艺术平台上建立工作,其中用户可以使用预先训练的GaN模型生成图像。我们探索在该平台上生成的图像的潜在维度,并提出了一种用于操纵图像的新框架,使其更具创意。我们的代码和数据集可用于http://github.com/catlab-team/latentcreative。
translated by 谷歌翻译
在本文中,我们使用大规模播放脚本数据集来提出从对话中提出戏剧发电的新颖任务。使用超过一百万行的对话和提示,我们将提示生成问题作为受控文本生成任务方法,并展示如何使用如何使用对话/提示鉴别器的语言模型来增强对话的影响。此外,我们还探讨了主题关键字和情绪的使用,以获得受控文本生成。广泛的定量和定性实验表明,语言模型可以成功地用于在高度专业化的域中生成合理的和属性控制的文本,例如播放脚本。配套材料可在:https://catlab-team.github.io/cuegen。
translated by 谷歌翻译
草图是视觉感知和粘合性建设的抽象表示。在这项工作中,我们提出了一个新的框架GaN-CNMP,它在CNMP上含有新的对抗性损失,以提高草图平滑度和一致性。通过实验,我们表明我们的模型可以训练,其中少量未标记的样本,可以在潜伏空间中自动构建分布,并在形状一致性和平滑方面产生比基础模型更好的结果。
translated by 谷歌翻译