Dct域内基于视觉注意力机制的图像jnd阈值计算方法
【专利摘要】一种DCT域内基于视觉注意力机制的图像JND阈值计算方法。本发明提出了两种将显著度和块分类相结合的方案,一种是用单个点的视觉注意力掩蔽因子和块分类的掩蔽因子按照点对点的方式相结合,另一种是用每个块的平均显著度代表整个块的显著度,然后将基于每个块的视觉注意力掩蔽因子和块分类的掩蔽因子按照块到块的方式相结合。使用综合的对比度掩蔽函数计算得到的值对传统的JND阈值进行调制,最终得到更加准确的JND阈值。两种方法都能有效地提高JND阈值的准确度,从而使得JND阈值和人眼视觉系统更加匹配。本发明提出的图像JND阈值计算方法实现的模型可以容纳更多的噪声,在PSNR方面,模型平均可以提高0.54DB。
【专利说明】DCT域内基于视觉注意力机制的图像JND阈值计算方法
【技术领域】
[0001]本发明涉及图像/视频编码【技术领域】。
技术背景
[0002]传统的图像/视频编码技术主要针对空间域冗余、时间域冗余以及统计冗余进行压缩编码,但很少考虑到人眼视觉系统特性和心理效应,因此大量视觉冗余数据被编码并传输,为了进一步提高编码的效率,研究人员开始了致力于去除视觉冗余的研究。目前一个表征视觉冗余的有效方法就是基于心理学和生理学的最小可察觉失真模型,简称JND模型,也可称为恰可察觉失真模型,即人眼不能感知的变化,由于人眼的各种屏蔽效应,人眼只能觉察超过某一阈值的噪声,该阈值就是人眼的恰可觉察失真,代表着图像中的视觉冗余度。JND模型常用来指导图像或视频的感知编码和处理,如预处理、自适应量化、码流控制、运动估计等。
[0003]现有的可察觉失真(JND)模型可以大致分为两类:第一类为像素域JND模型,其基本原理大多是通过表征亮度自适应效应和纹理掩蔽效应来建模,例如文献I (参见X.Yang, ff.Lin, Z.Lu, E.P.0ng, and S.Yao, u Just-noticeab I e-distortion profile withnonlinear additivity model for perceptual masking color images,,,LEEE Trans.CircuitsSyst.Video Technol.,vol.15, n0.6, pp742_752, Jun.2005)中提出了基于空域的彩色图像JND模型,但是由于其无法很好的将对比敏感度函数(Contrast SensitiveFunction,CSF)整合进来,因此这类模型没有办法得到精确的JND值,常作为计算JND阈值的快速方法来使用。
[0004]第二类JND模型为子带JND模型,这类模型是在变换域中进行计算,例如DCT域、小波域、C0NT0URLET域等。由于大多数图像/视频编码标准都是基于DCT域(如JPEG、
H.261 / 3 / 4、MPEG-1 / 2 / 4),因此基于DCT域的JND模型得到了很多研究者的关注,例如文献 2 (参见 Z.Wei and K.N.Ngan,“Spatial just noticeable distortion profilefor image in DCT domain,,,In Proc.1EEE Int.Conf.Multimeda and Expo, pp.925-928,2008.)中结合图像的亮度自适应特性,空间对比度效应以及基于块分类的对比度掩盖效应,但是该模型并没有考虑人眼的视觉注意力机制对JND模型的影响,因此计算精度有待进一步提闻。
【发明内容】
[0005]在WEI的模型的基础上本发明结合视觉注意力机制提出了一个新的DCT域内图像JND模型建模方法,通过综合考虑视觉注意力效应和对比度掩蔽效应设计出了一种综合的调制函数和亮度自适应效应一起对空间对比度敏感函数进行调制的方法。
[0006]为此,本发明给出技术方案实施步骤为:
[0007]—种基于DCT域的图像可觉察失真度计算方法,采用如下技术方案,包括以下步骤:[0008]步骤S1:将选定的图像进行8x8的DCT变换,将其由空域变换到DCT域。
[0009]步骤S2:在DCT域,根据空间对比度效应阈值和亮度自适应调制因子的乘积计算获得的基本的可觉察失真度JND值。
[0010]步骤S3:利用canny边缘检测器对图像进行分块,分为平滑块、边缘块和纹理块,得到基于块结构的对比度掩蔽函数。
[0011]步骤S4:利用视觉注意模型对图像进行显著性检测,得到图像的显著图。
[0012]步骤S5:
[0013]若选择方案一,此步骤则按照步骤S4所得的显著图对图像进行分割,将图像分为显著区域和非显著区域,然后基于每个点的显著值,得到基于视觉注意力机制的对比度掩盖因子。
[0014]若选择方案二,此步骤则首先将图像分割成显著区域和非显著区域,然后对步骤S4所得的显著图分块,用每个块的显著值的平均值代替整个块的显著值,并基于每个块的显著值得到基于视觉注意力机制的对比度掩蔽因子。
[0015]步骤S6:将步骤S5得到的图像显著区域和非显著区域的分割结果和步骤S3所得的块分类结果相结合,对图像进行更加细致的分块,并将基于视觉注意力机制对比度掩蔽因子和基于块结构的对比度掩蔽因子按照线性关系结合起来,得到综合的对比度掩蔽调制函数,
[0016]步骤S7:步骤S6计算得到的调制函数值对步骤S2计算得到的JND基本阈值进行调制,得到最终的JND阈值。
[0017]上述技术方案体现出的关键技术要点:
[0018]1、针对传统图像恰可察觉失真模型没有考虑视觉注意力机制这个问题,本发明提出了两种DCT域内基于视觉注意力机制的图像恰可察觉失真模型的建模算法,一种是,通过计算基于图像显著度的视觉注意力调制因子,并将该基于像素点的视觉注意力掩蔽因子和基于块结构的对比度掩蔽因子相结合,计算得到综合的对比度掩蔽函数,对传统的基于空间对比度效应和亮度自适应效应的JND阈值进行调制;第二种是,通过计算图像的显著图,并用每个块的显著度平均值代替整个块的显著度因子,然后建立基于块的视觉注意力掩蔽掩因子和基于块结构的对比度掩蔽因子相结合,得到综合的对比度掩蔽函数对基本的JND阈值进行调制。两种方法都能有效地提高JND阈值的准确度,从而使得JND阈值和人眼视觉系统更加匹配。
[0019]2、本发明提出了视觉注意力掩蔽效应的概念,通过视觉显著度模拟人眼对图像像素点的关注度,从而建立基于视觉显著度的视觉注意力掩蔽效应因子。
[0020]3、本发明提出了两种将显著度和块分类相结合的方案,一种是用单个点的视觉注意力掩蔽因子和块分类的掩蔽因子按照点对点的方式相结合,另一种是用每个块的平均显著度代表整个块的显著度,然后将基于每个块的视觉注意力掩蔽因子和块分类的掩蔽因子按照块到块的方式相结合。
[0021]4、通过将视觉显著度和块分类相结合,对图像进行更加精细和准确的分块。
[0022]5、基于每个块的显著特性和块结构特性,通过设置不同的显著度调制因子和块结构调制因子,从而将视觉注意掩蔽因子和块分类对比度掩蔽因子结合起来,得到综合的对比度掩蔽函数。[0023]本发明方法的有益效果为:使用综合的对比度掩蔽函数计算得到的值对传统的JND阈值进行调制,最终得到更加准确的JND阈值。在保证同样的视觉主观质量的前提下,本发明提出的图像JND阈值计算方法实现的模型可以容纳更多的噪声。 【专利附图】
【附图说明】
[0024]图1是本发明DCT域的基于的基于视觉注意力机制的图像可觉察失真度模型框图。
[0025]图2是本发明实例Airplane图像。
[0026]图3是本发明实例Airplane图像进行块分类之后的图像。
[0027]图4是本发明实例Airplane图像进行显著度分类之后的图像。
[0028]图5是本发明实例Airplane图像综合考虑显著度和块结构的细致分块结果(该图为了符合专利公开的形式要求,原图的彩色已被消除)。
[0029]图6为本发明DCT域内基于视觉注意力机制的图像JND阈值计算方法流程图。【具体实施方式】
[0030]下面以具体实例结合附图对本发明作进一步说明:
[0031]本发明提供的实例采用MATLAB7作为仿真实验平台,以512X512的bmp灰度图像Airplane作为选定的测试图像,下面结合每个步骤详细描述本实例:
[0032]步骤(I),选定512X512的bmp灰度图像作为输入测试的图像,将其进行8X8的DCT变换,将其由空域变换到DCT域;
[0033]步骤(2),在DCT域,根据空间对比度基本阈值和亮度自适应调制因子的乘积计算获得可觉察失真JND值,其计算公式如下:
[0034]Tjnd(n, i, j)=TBasic(n, i, j) XFlum(η) (I)
[0035]其中,TBasic;(n,i,j)代表空间对比度敏感阈值,Flum(η)代表亮度自适应调整因子,
ψ X fj
η为DCT块的索引,I ^ ^ ^ 一f,W为图像的宽度,H为图像的高度,i,j为DCT块中系数
的索引,I < i ^ 64,1 ^ j ^ 64。一般的DCT块都为8x8大小,那么该测试图像就分为 =廳个DCT块,η取I到4096之间数值,1、j取I到64之间数值。
[0036]上式⑴中的基本阈值TBasic;(n,i,j)采用如下方法计算获得:
[0037]DCT子带的频率可以表示如下:
[0038]COij 二去 / θν)2 + U / θν?
' (2)
[0039]其中θ χ= Θ y=2.arctan ( Y / 2.I)是一个像素的水平和垂直视角,I是图像的观察距离,在该发明中,I为图像宽度的3倍,Y代表显示器上一个像素显示的宽度或者长度。由上所述,DCT块的空间对比度敏感阈值为:
[0040]
T Ls exp (αω,-/) / (a + δωυ)
^Basic^I,J) —: ,.~ ~?
Φ?Ψ] τ + (1- τ) COS“ ψ?](3)
[0041]式(3)中:s代表空间集合效应,在该发明中取0.25, r + (1 - H + ^ 代表倾斜效应,其中r=0.6,Φρ 是DCT归一化系数,代表相应DCT系数的方向角:
【权利要求】
1.一种基于DCT域的图像可觉察失真度计算方法,包括以下步骤: 步骤S1:将选定的图像进行8x8的DCT变换,将其由空域变换到DCT域; 步骤S2:在DCT域,根据空间对比度效应阈值和亮度自适应调制因子的乘积计算获得的基本的可觉察失真度JND值; 步骤S3:利用canny边缘检测器对图像进行分块,分为平滑块、边缘块和纹理块,得到基于块结构的对比度掩蔽函数; 步骤S4:利用视觉注意模型对图像进行显著性检测,得到图像的显著图; 步骤S5: 若选择方案一,此步骤则按照步骤S4所得的显著图对图像进行分割,将图像分为显著区域和非显著区域,然后基于每个点的显著值,得到基于视觉注意力机制的对比度掩盖因子; 若选择方案二,此步骤则首先将图像分割成显著区域和非显著区域,然后对步骤S4所得的显著图分块,用每个块的显著值的平均值代替整个块的显著值,并基于每个块的显著值得到基于视觉注意力机制的对比度掩蔽因子; 步骤S6:将步骤S5得到的图像显著区域和非显著区域的分割结果和步骤S3所得的块分类结果相结合,对图像进行更加细致的分块,并将基于视觉注意力机制对比度掩蔽因子和基于块结构的对比度掩蔽因子按照线性关系结合起来,得到综合的对比度掩蔽调制函数; 步骤S7:步骤S6计算得到的调制函数值对步骤S2计算得到的JND基本阈值进行调制,得到最终的JND阈值。
【文档编号】H04N17/00GK103475881SQ201310413594
【公开日】2013年12月25日 申请日期:2013年9月12日 优先权日:2013年9月12日
【发明者】张冬冬, 高利晶, 臧笛, 孙杳如 申请人:同济大学