With the growth of editing and sharing images through the internet, the importance of protecting the images' authorship has increased. Robust watermarking is a known approach to maintaining copyright protection. Robustness and imperceptibility are two factors that are tried to be maximized through watermarking. Usually, there is a trade-off between these two parameters. Increasing the robustness would lessen the imperceptibility of the watermarking. This paper proposes an adaptive method that determines the strength of the watermark embedding in different parts of the cover image regarding its texture and brightness. Adaptive embedding increases the robustness while preserving the quality of the watermarked image. Experimental results also show that the proposed method can effectively reconstruct the embedded payload in different kinds of common watermarking attacks. Our proposed method has shown good performance compared to a recent technique.
translated by 谷歌翻译
数字图像水印寻求保护数字媒体信息免受未经授权的访问,其中消息被嵌入到数字图像中并从中提取,甚至在各种数据处理下应用一些噪声或失真,包括有损图像压缩和交互式内容编辑。在用一些事先约束时,传统图像水印解决方案容易受到鲁棒性,而最近的基于深度学习的水印方法无法在特征编码器和解码器的各种单独管道下进行良好的信息丢失问题。在本文中,我们提出了一种新的数字图像水印解决方案,具有一个小巧的神经网络,名为可逆的水印网络(IWN)。我们的IWN架构基于单个可逆的神经网络(INN),这种双翼飞变传播框架使我们能够通过将它们作为彼此的一对逆问题同时解决信息嵌入和提取的挑战,并学习稳定的可逆性映射。为了增强我们的水印解决方案的稳健性,我们具体地引入了一个简单但有效的位消息归一化模块,以冷凝要嵌入的位消息,并且噪声层旨在模拟我们的iWN框架下的各种实际攻击。广泛的实验表明了我们在各种扭曲下的解决方案的优越性。
translated by 谷歌翻译
本文的目的是通过提出一种新颖的方案,提高图像取证中复制伪造检测(CMFD)的准确性,主要贡献正在不断发展循环域覆盖(ECDC)算法。该方案集成了基于块和基于关键点的伪造检测方法。首先,从整个图像中提取逻辑极性空间和比例不变特征变换(SIFT)中的加速强大功能(SURF)。其次,采用广义2最近邻(G2NN)来获得大规模匹配的对。然后,采用随机样本共识(RANSAC)算法来滤除不匹配的对,从而允许粗略地位伪造区域。要更准确地展示这些伪造地区,我们提出了高效准确的ECDC算法呈现它们。该算法可以通过从联合演化的圆形域中提取块特征来找到满意的阈值区域,这些域在匹配对上以匹配的对。最后,应用形态学操作来优化检测到的伪造区域。实验结果表明,与其他最先进的CMFD方案相比,所提出的CMFD方案可以在各种攻击下实现更好的检测性能。
translated by 谷歌翻译
基于深度学习的彩色图像隐写术是彩色图像中隐藏信息的艺术。其中,近年来,图像隐藏的隐藏隐身(躲藏图像)近年来引起了很多关注,因为它的书签容量很大。然而,由图像隐藏的隐藏术产生的图像可以显示一些明显的颜色失真或人为纹理迹线。我们提出了一种基于频率子带选择的彩色图像隐写模型,以解决上述问题。首先,我们讨论了不同颜色空间/频率子带的特征与所生成的图像质量之间的关系。然后,我们选择RGB图像的B沟道作为嵌入信道和高频子频带作为嵌入域。 DWT(离散小波变换)将B信道信息和秘密灰度图像变换为频域信息,然后嵌入秘密图像并在频域中提取。综合实验表明,我们的模型产生的图像具有更好的图像质量,并且难以察觉率显着增加。
translated by 谷歌翻译
图像裁剪是一种廉价而有效的恶意改变图像内容的操作。现有的裁剪检测机制分析了图像裁剪的基本痕迹,例如色差和渐晕,以发现种植攻击。但是,它们在常见的后处理攻击方面脆弱,通过删除此类提示,欺骗取证。此外,他们忽略了这样一个事实,即恢复裁剪的内容可以揭示出行为造成攻击的目的。本文提出了一种新型的强大水印方案,用于图像裁剪定位和恢复(CLR-NET)。我们首先通过引入不可察觉的扰动来保护原始图像。然后,模拟典型的图像后处理攻击以侵蚀受保护的图像。在收件人方面,我们预测裁剪面膜并恢复原始图像。我们提出了两个即插即用网络,以改善CLR-NET的现实鲁棒性,即细粒生成性JPEG模拟器(FG-JPEG)和Siamese图像预处理网络。据我们所知,我们是第一个解决图像裁剪本地化和整个图像从片段中恢复的综合挑战的人。实验表明,尽管存在各种类型的图像处理攻击,但CLR-NET可以准确地定位裁剪,并以高质量和忠诚度恢复裁剪区域的细节。
translated by 谷歌翻译
最近,隐写术领域经历了基于深度学习(DL)的快速发展。基于DL的隐写术在封面图像的所有可用位分发了秘密信息,从而在使用传统的隐分方法来检测,提取或删除隐藏秘密图像的困难。但是,我们提出的框架是第一个有效禁用使用基于DL的隐写术的秘密通信和事务。我们提出了一种基于DL的隐分技术,其通过恢复原始图像的分布而有效地去除秘密图像。我们通过使用深神经网络利用复杂的像素分布和图像的边缘分布来制定问题并解决它。根据给定的信息,我们在像素级别删除隐藏的秘密信息。我们通过使用三个公共基准与传统的隐草方法进行比较来评估我们的技术。由于基于DL的隐写的解码方法是近似的(损失)并且与传统隐写术的解码方法不同,我们还引入了一种称为破坏率(DT)的新的定量度量。实验结果表明,在解码速率和DT中表现出10-20%的性能提高。
translated by 谷歌翻译
盐和辣椒噪声去除是图像处理中的常见问题。传统的去噪方法有两个限制。首先,通常未准确描述噪声特性。例如,噪声位置信息通常被忽略,并且盐和辣椒噪声的稀疏性通常由L1标准描述,这不能清楚地示出稀疏变量。其次,传统方法将污染图像分离成恢复的图像和噪声部分,从而导致恢复具有不满足平滑部件和细节部件的图像。在本研究中,我们引入了噪声检测策略来确定噪声的位置,并且采用由LP准规范描绘的非凸稀稀曲面正规化来描述噪声的稀疏性,从而解决了第一个限制。采用静止框架变换的形态分析框架将处理的图像分解为卡通,纹理和噪声部件以解决第二个限制。然后,采用乘法器(ADMM)的交替方向方法来解决所提出的模型。最后,进行实验以验证所提出的方法,并将其与一些最新的最先进的去噪方法进行比较。实验结果表明,该方法可以在保留加工图像的细节时去除盐和辣椒噪声。
translated by 谷歌翻译
多传感器融合被广泛用于自动驾驶汽车的环境感知系统。它解决了由环境变化引起的干扰,并使整个驾驶系统更安全,更可靠。在本文中,提出了一种基于纹理信息的新型可见和近红外融合方法,以增强非结构化的环境图像。它针对传统可见和近红外图像融合方法中的工件,信息丢失和噪声问题。首先,通过相对总变化(RTV)计算,可见图像(RGB)的结构信息(RGB)和近红外图像(NIR)作为融合图像的基础层;其次,建立了贝叶斯分类模型来计算噪声重量和可见图像中的噪声信息和噪声信息通过关节双侧滤波器自适应过滤;最后,融合图像是通过颜色空间转换获得的。实验结果表明,所提出的算法可以保留光谱特性和无伪影和颜色失真的可见和近红外图像的独特信息,并且具有良好的鲁棒性以及保留独特的质地。
translated by 谷歌翻译
全息信息隐藏是一种用于将全息图或图像嵌入另一个全息图的技术,用于全息图的版权保护和隐写。使用深度神经网络,我们提供了一种提高嵌入式全息图的视觉质量的方法。嵌入式全息图的亮度被设定为主题全息图的一部分,导致主体全息图的几乎损坏的重建图像。然而,难以察觉,因为嵌入式全息图的重建图像比重建的主机图像更暗。在这项研究中,我们使用深神经网络来恢复变暗的图像。
translated by 谷歌翻译
在过去十年中,图像已成为许多域中的重要信息来源,因此他们的高质量是获取更好信息的必要条件。出现的重要问题是图像去噪,这意味着从不准确和/或部分测量的样品中恢复信号。这种解释与压缩感测理论高度相关,这是一种革命性的技术,并且意味着如果信号稀疏,则可以从几个测量值获得原始信号,这些值远低于其他使用的理论所建议的值像Shannon的抽样理论。压缩传感(CS)理论的强因素以实现稀疏性解决方案以及从损坏的图像中移除的噪声是基础词典的选择。在本文中,比较了基于压缩感测和稀疏近似理论的高斯粘性白噪声的离散余弦变换(DCT)和力矩变换(TCHEBICHEF,KRAWTCHOUK)。实验结果表明,由矩变换构建的基本词典竞争性地表现为传统的DCT。后一种变换显示了30.82dB的PSNR,与Tchebichef变换相同的0.91 SSIM值。此外,从稀疏性的角度来看,Krawtchouk时刻提供大约20-30%的稀疏结果比DCT更多。
translated by 谷歌翻译
We propose a novel image denoising strategy based on an enhanced sparse representation in transform domain. The enhancement of the sparsity is achieved by grouping similar 2-D image fragments (e.g., blocks) into 3-D data arrays which we call "groups." Collaborative filtering is a special procedure developed to deal with these 3-D groups. We realize it using the three successive steps: 3-D transformation of a group, shrinkage of the transform spectrum, and inverse 3-D transformation. The result is a 3-D estimate that consists of the jointly filtered grouped image blocks. By attenuating the noise, the collaborative filtering reveals even the finest details shared by grouped blocks and, at the same time, it preserves the essential unique features of each individual block. The filtered blocks are then returned to their original positions. Because these blocks are overlapping, for each pixel, we obtain many different estimates which need to be combined. Aggregation is a particular averaging procedure which is exploited to take advantage of this redundancy. A significant improvement is obtained by a specially developed collaborative Wiener filtering. An algorithm based on this novel denoising strategy and its efficient implementation are presented in full detail; an extension to color-image denoising is also developed. The experimental results demonstrate that this computationally scalable algorithm achieves state-of-the-art denoising performance in terms of both peak signal-to-noise ratio and subjective visual quality.
translated by 谷歌翻译
Objective methods for assessing perceptual image quality have traditionally attempted to quantify the visibility of errors between a distorted image and a reference image using a variety of known properties of the human visual system. Under the assumption that human visual perception is highly adapted for extracting structural information from a scene, we introduce an alternative framework for quality assessment based on the degradation of structural information. As a specific example of this concept, we develop a Structural Similarity Index and demonstrate its promise through a set of intuitive examples, as well as comparison to both subjective ratings and state-of-the-art objective methods on a database of images compressed with JPEG and JPEG2000. 1
translated by 谷歌翻译
该论文通过将基于定向准分析小波包(QWP)与最新的加权核定标准最小化(WNNM)denoising算法相结合,从而提出了图像降级方案。基于QWP的Denoising方法(QWPDN)由降级图像的多尺度QWP变换,使用双变量收缩方法的适应性局部软阈值应用于转换系数,以及从几个分解级别中恢复阈值系数的图像。合并的方法由QWPDN和WNNM算法的几个迭代组成,以每种迭代的方式,从一种算法中的输出将输入提高到另一个算法。提出的方法将QWPDN的功能融合在一起,即使在严重损坏的图像中捕获边缘和精细的纹理模式,并利用了WNNM算法固有的真实图像中的非本地自相似性。多个实验将所提出的方法与包括WNNM在内的六种高级denoing算法进行了比较,证实,在定量度量和视觉感知质量方面,合并的跨增强算法比大多数都优于大多数。
translated by 谷歌翻译
图像超分辨率(SR)是重要的图像处理方法之一,可改善计算机视野领域的图像分辨率。在过去的二十年中,在超级分辨率领域取得了重大进展,尤其是通过使用深度学习方法。这项调查是为了在深度学习的角度进行详细的调查,对单像超分辨率的最新进展进行详细的调查,同时还将告知图像超分辨率的初始经典方法。该调查将图像SR方法分类为四个类别,即经典方法,基于学习的方法,无监督学习的方法和特定领域的SR方法。我们还介绍了SR的问题,以提供有关图像质量指标,可用参考数据集和SR挑战的直觉。使用参考数据集评估基于深度学习的方法。一些审查的最先进的图像SR方法包括增强的深SR网络(EDSR),周期循环gan(Cincgan),多尺度残留网络(MSRN),Meta残留密度网络(META-RDN) ,反复反射网络(RBPN),二阶注意网络(SAN),SR反馈网络(SRFBN)和基于小波的残留注意网络(WRAN)。最后,这项调查以研究人员将解决SR的未来方向和趋势和开放问题的未来方向和趋势。
translated by 谷歌翻译
Image super-resolution (SR) is a technique to recover lost high-frequency information in low-resolution (LR) images. Spatial-domain information has been widely exploited to implement image SR, so a new trend is to involve frequency-domain information in SR tasks. Besides, image SR is typically application-oriented and various computer vision tasks call for image arbitrary magnification. Therefore, in this paper, we study image features in the frequency domain to design a novel scale-arbitrary image SR network. First, we statistically analyze LR-HR image pairs of several datasets under different scale factors and find that the high-frequency spectra of different images under different scale factors suffer from different degrees of degradation, but the valid low-frequency spectra tend to be retained within a certain distribution range. Then, based on this finding, we devise an adaptive scale-aware feature division mechanism using deep reinforcement learning, which can accurately and adaptively divide the frequency spectrum into the low-frequency part to be retained and the high-frequency one to be recovered. Finally, we design a scale-aware feature recovery module to capture and fuse multi-level features for reconstructing the high-frequency spectrum at arbitrary scale factors. Extensive experiments on public datasets show the superiority of our method compared with state-of-the-art methods.
translated by 谷歌翻译
Most neural networks for computer vision are designed to infer using RGB images. However, these RGB images are commonly encoded in JPEG before saving to disk; decoding them imposes an unavoidable overhead for RGB networks. Instead, our work focuses on training Vision Transformers (ViT) directly from the encoded features of JPEG. This way, we can avoid most of the decoding overhead, accelerating data load. Existing works have studied this aspect but they focus on CNNs. Due to how these encoded features are structured, CNNs require heavy modification to their architecture to accept such data. Here, we show that this is not the case for ViTs. In addition, we tackle data augmentation directly on these encoded features, which to our knowledge, has not been explored in-depth for training in this setting. With these two improvements -- ViT and data augmentation -- we show that our ViT-Ti model achieves up to 39.2% faster training and 17.9% faster inference with no accuracy loss compared to the RGB counterpart.
translated by 谷歌翻译
为了提高图像压缩性能,最近的基于神经网络的基于神经网络的研究可以分为三类:学习编解码器,后处理网络和紧凑型表示网络。学习编解码器专为超出传统压缩模块而设计的端到端学习。后处理网络使用基于示例的学习增加解码图像的质量。学习紧凑的表示网络,以降低输入图像的容量,以减少比特率的同时保持解码图像的质量。然而,这些方法与现有的编解码器不兼容,或者不会最佳地增加编码效率。具体地,由于编解码器的不准确性,难以在先前的研究中实现最佳学习。在本文中,我们提出了一种基于辅助编解码器网络(ACN)的新颖的标准兼容图像压缩框架。 ACNS旨在模仿现有编解码器的图像劣化操作,这为紧凑型表示网络提供了更准确的梯度。因此,可以有效地和最佳地学习紧凑的表示和后处理网络。我们证明,我们基于JPEG和高效视频编码(HEVC)标准的建议框架基本上以标准的兼容方式大致优于现有的图像压缩算法。
translated by 谷歌翻译
图像分解是图像处理领域的关键主题。它可以从源图像中提取显着特征。我们提出了一种基于卷积神经网络的新图像分解方法。该方法可以应用于许多图像处理任务。在本文中,我们将图像分解网络应用于图像融合任务。我们输入红外图像和可见光图像,并将它们分解为三个高频特征图像和低频特征图像。使用特定的融合策略融合了两组特征图像,以获得融合特征图像。最后,重建功能图像以获得融合图像。与最先进的融合方法相比,该方法在主观和客观评估中都取得了更好的性能。
translated by 谷歌翻译
图像处理中最重要的问题之一是由于模糊过程而丢失的图像的近似。这些类型的事项分为非盲目和盲目问题。由于原始图像和点扩展功能估计未知,第二种问题比计算比第一个问题更复杂。在本文中,引入了一种基于$ L_0-\ alpha L_1 $正则化和帧转换的基于粗细迭代的算法,以近似传播函数估计。由于内核的分解到不同频率,Framefet转移改善了恢复的内核。同样在所提出的模型分数梯度运算符代替普通梯度操作员。在不同种类的图像上调查了所提出的方法,例如文本,面部,自然。所提出的方法的输出反映了所提出的算法在恢复图像中恢复盲问题的有效性。
translated by 谷歌翻译
最近,基于深度学习的图像压缩已取得了显着的进步,并且在主观度量和更具挑战性的客观指标中,与最新的传统方法H.266/vvc相比,取得了更好的评分(R-D)性能。但是,一个主要问题是,许多领先的学识渊博的方案无法保持绩效和复杂性之间的良好权衡。在本文中,我们提出了一个效率和有效的图像编码框架,该框架的复杂性比最高的状态具有相似的R-D性能。首先,我们开发了改进的多尺度残差块(MSRB),该块可以扩展容纳长石,并且更容易获得全球信息。它可以进一步捕获和减少潜在表示的空间相关性。其次,引入了更高级的重要性图网络,以自适应地分配位置到图像的不同区域。第三,我们应用2D定量后flter(PQF)来减少视频编码中样本自适应偏移量(SAO)flter的动机。此外,我们认为编码器和解码器的复杂性对图像压缩性能有不同的影响。基于这一观察结果,我们设计了一个不对称范式,其中编码器采用三个阶段的MSRB来提高学习能力,而解码器只需要一个srb的一个阶段就可以产生令人满意的重建,从而在不牺牲性能的情况下降低了解码的复杂性。实验结果表明,与最先进的方法相比,所提出方法的编码和解码时间速度约为17倍,而R-D性能仅在Kodak和Tecnick数据集中降低了1%,而R-D性能仅少于1%。它仍然比H.266/VVC(4:4:4)和其他基于学习的方法更好。我们的源代码可在https://github.com/fengyurenpingsheng上公开获得。
translated by 谷歌翻译