尽管最近在图像翻译方面进行了显着进展,但具有多种差异对象的复杂场景仍然是一个具有挑战性的问题。因为翻译的图像具有低保真度和微小对象,更少,并在对象识别中获得不满意的性能。如果图像的彻底对象感知(即,边界框,类别和掩码)作为先验知识,则在图像转换过程中将难以跟踪每个对象的样式转换。我们提出了基于Panoptic的对象样式对齐生成的对抗生成的对抗网络(POSA-GAN),用于图像到图像 - 图像到图像转换,以及一个紧凑的Panoptic semation数据集。 Panoptic分割模型用于提取Panoptic-Level感知(即,除去图像中的重叠的前景对象实例和背景语义区域)。这用于指导从目标域的样式空间采样的输入域图像和对象样式代码的对象内容代码之间的对齐。进一步转换样式对齐的对象表示以获得更高保真对象生成的精确边界布局。与不同的竞争方法系统的系统进行了系统地进行了系统地进行了系统地进行了系统地进行了比较,并对翻译图像的图像质量和物体识别性能进行了显着改善。
translated by 谷歌翻译