显著目标检测:一种判别性区域特征融合方法外文翻译资料

 2022-08-09 10:08

英语原文共 18 页,剩余内容已隐藏,支付完成后下载完整资料


显著目标检测:一种判别性区域特征融合方法

摘要

特征集成提供了一种计算能力显着性检测框架,以及许多手工制作的集成规则已经制定。在本文中,本文提出了一种有原则的扩展,监督特征集成,它学习了随机森林回归器,以区别地集成显着性特征以进行显着性计算。除了对比功能外,本文还介绍了区域性对象描述符:客观描述符描述了对象的公共空间和外观属性显着物体和特定于图像的背景描述背景外观的描述符特定图像的显示,对于估计显着性。就本文所知,本文监督功能集成框架是第一个成功完成显着性集成的方法显着物体检测功能,性能优于显着图的集成方法。和...一起

融合多级区域显着性图以强加空间显着性一致性,本文的方法显着在七个基准测试中均胜过最新方法数据集。本文还将讨论一些后续工作,这些后续工作将共同学习使用的表示形式和显着性图深度学习。

关键词:显著目标检测;数据驱动

1引言

视觉显著性一直是神经科学、心理学、神经系统和计算机视觉领域的一个基本问题。它最初被定义为预测图像上眼睛注视的任务(Itti和Niebur 1998)。最近,它被扩展到确定一个地区(马和张2003;Liuatal.2007)包含AlientObject、Known显著目标检测或显著区域检测。应用显著目标检测包括目标检测和识别(Kanan和Cottrell 2010;Walther和Koch 2006)、图像压缩(Itti 2004)、图像裁剪(Marchesottietal.2009)、光降解(Gofermanetal.2010;Wangetal)。2006),主色检测(Wang等人。2012b,c)等等。

对人类视觉系统的研究表明,视觉的显著性与场景的独特性、稀有性和惊奇性有关,其特征是建立在特征整合理论基础上的颜色、纹理、形状等原始特征(Itti和Niebur,1998;Treisman和Gelad 1980)提出了一个计算框架:从不同的显著性线索计算显著性(特征)地图,然后将它们结合起来形成最终的显著性地图,各种启发式算法(Achanta等人。2009年;Borji和Itti 2012年;Cheng等人。2014年;Gao等人。2007年;Goferman等人。2010年;Klein和Frintrop,2011年;Liu等人。2011年;Lu等人。2011年;Perazzi等人。2012年)已开发。然而,手工制定的集成规则是脆弱的,很难一概而论。在Borji等人的研究中发现。(2012年)和2015年,手工编制的集成算法都无法在基准数据集上一致地执行其他算法。

本文提出了一种判别特征集成方法,它是传统无监督特征集成(TreismanandGelad1980)的有监督扩展。

在本文中,本文的方法学习一个回归器随机森林,以整合显著性特征,得到显著性得分。学习集成的好处是从训练数据中自动学习集成规则,而不必参考测试数据。

除了作为显著性(唯一性)指标广泛使用的区域与其周围区域的差异作为对比度描述符之外,本文还将额外的对象特征引入到判别特征集成框架中,指示位于对象和背景之下的区域的程度:对象描述符观察对象的空间和适应特性,以及表示特定图像背景外观的图像特定背景描述符。

考虑到一个显著目标通常是由空间连通区域形成的,发送一个单独的图像分割可能不够可靠,本文建议对从多层次图像分割中计算出的显著性映射进行融合,以便计算出空间显著性映射和可能由于不可靠分割而导致的不精确性。实验结果表明,本文的方法在七个基准数据集上明显优于最新的方法。

1.提出了一种基于监督特征融合的显著目标检测方法。本文的会议版本(Jiang等人。2013b)是第一个展示了在显著性特征上对显著性目标检测的监管功能集成的成功案例,尽管它很简单,并且启发了许多后续的数据驱动显著性目标检测方法。

2.通过观察从一个数据集学习到的特征集成模型在性能上优于其他数据集,证明了监督集成方法的泛化能力。

3.除了以往的方法所依赖的对比度或中心-周围差异外,本文还介绍了对象度描述、对象性和图像特定背景度描述,发现它们对于显著目标检测比对比度特征更为重要。

本文是本文先前会议版本(Jiang等人。2013年b)。扩展包括以下几个方面。(1) 本文指出,在训练阶段,一种有监督的多层次分割方法是可行的,而在测试阶段,一种无监督的多层次分割方法更有效。(2) 本文给出了更多的实证分析,包括参数分析、特征重要度、鲁棒性分析,并与更多的算法进行了比较。(3) 本文讨论了一些后续工作,这些工作扩展了本文的方法与深度学习技术。(4)本文用C 重新编写了代码,以实现一个高效的实现,并发布了本文的C CODENEITE项目页面,http://supermoe.cs.umass.edu/~hzjiang/drfi

2 相关工作

显著性检测包括两个基本任务:眼睛注视预测和显著目标检测。眼睛注视预测的研究从一个通用的计算框架(TreismanandGelad1980)开始,到该框架的实现(Itti和Niebur,1998)成为热点。自创业以来(刘等。在图像识别、搜索、编辑等实际应用的推动下,显著性分析从预测定位点到检测显著目标的方法在计算机视觉领域引起了越来越多的研究兴趣,也是本文的研究方向。读者可参考Borji等人。(2015)和Borji和Itti(2013)进行了综合调查和回顾。在下文中,本文简要回顾了现场目标检测,并将现有算法分为两类:无监督和监督。

2.1 无监督

大多数无监督的显著目标检测算法遵循围绕中心的对比度框架(Itti和Niebur 1998),根据特征集成理论(Treisman和Gelad 1980)组合不同种类的特征。作为早期的研究工作,从多尺度分析的角度,Liu和Gleicher(2006)以及Liu等人对像素(斑块)水平的对比度进行了广泛的研究。(2011),有效的对比措施,例如判别中心环绕假设(Gaotal.2007;GaoandVasconcelos2007)和计算中心环绕散度的特征统计(Klein和Frintrop 2011)。

基于区域的解决方案由于其优于基于像素的解决方案,在最近的研究中占据了主导地位。具有代表性的工作包括区域对比和多层次分割(Jiang等人。2011),优化的层次显著图组合(Yan等人。2013),用于测量中心区域w.r.t.及其周围环境可分性的成本敏感SVM(Li等人。等等。在基于补丁的解决方案中,除了计算中心与其局部上下文之间的中心周围对比度之外,还对全局对比度进行了初步研究(Margolin等人。2013),通过将一个区域与图像不变性形式中的同素异形部分进行比较来计算该区域的对比度(Cheng等人。2014年;Perazzi等人。2012年)。全局唯一性是全局对比的一种替代形式,例如全局颜色和纹理唯一性(Scharfenberger等人。2013年;Shi等人。2013),低阶矩阵分解(Shen等人。2012年;Zou等人。2013年;Peng等人。2013),其中低秩矩阵对应于背景区域,而稀疏噪声则表示显著区域。Cheng等人采用了基于高斯混合模型的软图像分割方法。(2013)解决基于硬图像分割的显著目标检测中的边界问题

除了唯一性和对比度外,还探讨了显著性计算中的许多其他优先级。蒋等人研究了中心先验,即突出物体通常位于图像的中心。(2011)和Wang等人。(2012a)。对象优先,例如连接优先(Vicente等人。2008),凹陷背景(Lu等人。以及自动上下文提示(Wang等人。2011),背景优先(Wei等人。2012年;Yang等人。2013年;Li等人。2013年;Jiang等人。2013年a),一般客体优先(Chang等人。2011年;Jiang等人。2013年3月;贾和汉,2013年),背景:康涅狄格州-伊蒂普里奥(Zouetal,2013年;ZhangandSclaroff2013年;Zhuetal。(2014)也被用于显著性计算。本文中引入的对象描述符与对象先验有关,但本文的方法更侧重于形成一个描述符,然后将其作为回归器的输入进行组合,以学习显著图,而不是以无监督的方式给出分数。

在中心环绕框架下开发了一些显著目标检测算法,子模块显著目标检测(Jiang和Davis 2013d)将显著目标检测与子模块设备定位问题联系起来。贝叶斯框架(Rahtu等人。2010年;Xie等人。2013),偏微分方程(Liu等人。以及光谱分析(Achanta等人。2009年),是介绍。基于实例的方法,搜索输入的相似图像,用于显著目标检测(Marchesottietal.2009;Wangetal.2011)。Besidesinan RGB图像,从立体视觉图像对中检测显著目标(Niu et al。2012年)和提供深度信息的RBGD图像(设计2013年),以及来自Lightfields(Lietal。2014年),也进行了研究。

2.2 有监督

有监督的解决方案从训练数据中学习到一个显著的目标检测器,在训练数据中,另一个目标是一个充满盒子的静态映射器,有两种基本的监督方法:早期融合和后期融合。

早期融合直接从原始特征中学习显著性图。会议版本(Jiang等人。2013b)属于这一类的论文,以及证明最先进的活体检测性能的成功方法。早期试验(Mehranietal。2010),它提取了非对比特征(类似于本文介绍的客观特征),并从特征到显著性得分学习了一个回归器,既没有系统的研究,也没有任何见解,因此没有取得令人满意的结果。相比之下,我们的方法显示出对比度和背景描述以及多尺度分析的效果,并启发了许多后续的研究。例如,学习增强决策树来生成初始显著性图(Kim等人。2014)采用颜色变换算法生成最终显著性图。使用CNN功能(Li和Yu 2015)可以提高我们方法的性能。后续工作,如陈等。(2015),Li等人。(2015)和Li和Yizhou(2016)使用深度学习扩展了监督特征集成,深度学习联合学习特征表示和特征集成以显著性计算。

后期融合学习合并显著图,这些显著图是在无监督的情况下从其他算法中获得的,以生成最终显著图。早期工作(Liu等人。2011)采用条件随机域来优化显著性地图和空间平滑度的组合。相反,利用横向纹理分析(Khuwuthyakorn etal.2010)和拉格玛精加工框架(Luetal.2014)来学习组合。除了显著性映射外,还使用泛型对象来帮助计算显著性映射。例如,一般客体(Alexe等人。使用图形模型(Chang等人。2011年)以无监督的方式。将窗口上的目标建议融合,使用自适应平均方案生成显著图(Lietal.2014)。根据将窗口分类为背景(不显著)或对象(显著)的结果计算显著图(Moosmann et al。2006),这可以被视为一种后期融合的形式。在输出包围盒的任务中探索了有监督的方法,以指示显著对象,例如,使用随机森林从显著图中回归盒子(Wang等人。2012a)。

3 预备阶段

3.1显著目标检测

显著客体的概念包括两个方面:客体和视觉效果(或视觉效果)。客体是指所有类型的客体,而不是特定的客体(如脸或人)。视觉显著性是一个先将注意力集中到视觉场景的某一特定区域,然后将注意力集中到视觉上显著的区域的过程。

从图像中识别最突出物体的过程。检测结果可以是(1)表示显著目标的包围盒,称为显著目标定位,(2)表示每个像素属于显著目标的程度的软地图,称为显著地图预测,以及(3)表示像素是否属于显著目标的二值地图,本文将显著性映射预测称为显著性目标切割,它在显著性检测领域得到了广泛的研究,同时也显示了基于显著性映射的显著性切割性能。

3.2 功能集成

特征整合理论是1980年由annetreeisman和garrygelade(1980)发展起来的一种注意理论,它认为不同类型的注意负责将不同的特征绑定到有意识的经验整体中,计算模型(Itti和Niebur 1998)从颜色、强度和方向通道中表示输入图像,使用中心-周围差分计算三个显著性(显著性)地图,并结合启发式,使其形成最终的主显著性地图。大多数后续的显著目标检测算法遵循特征集成框架和中心包围差分模式,然后设计颜色、纹理和方向之外的其他线索。本文的方法是一种有监督的扩展特性集成,这是第一种证明有监督解在显著目标检测中成功的方法。另外,实验结果表明,中心环绕差分或对比度并不是最重要的,本文提出的背景描述符和对象描述符更为重要。

4 模型

图1多层次判别性区域特征集成(DRFI)流程。它包括(1)多级分割,(2)各级显著性计算,(3)多级显著性融合。

图1给出了计算图像显著性图的流水线。它包括(1)在基于图的方法(Felzen szwalb和Huttenlocher 2004)中生成的多级分割,(2)每一层的显著性计算,分别采用本文提出的判别性区域特征融合方法和(3)线性组合的多层次显著性融合方法。

4.1区域特色差异整合

给定一幅图像I,本文将其分割成一组K个超像素,每个区域R由一个线性特征向量表示,由三种特征向量组成,一个对比度描述符,一个背景度描述符,一个对象描述符,本文的方法采用一个随机森林回归器,a=f(x),将描述映射到一个显著值a,分配给相应的区域R,从而映射到区域R中的每个像素,从而得到图像I的显著性映射a。

4.2多级融合

单一的图像分割可能无法产生可靠的超像素来计算测试阶段的显著性图。例如,超级像素可能跨越了显著目标和背景像素的边界,超级像素可能太小,没有足够的字符来判断它是否属于显著目标,本文建议探索多级分割,,它们是使用基于(无监督)图的图像分割方法(Felzenszwalb和Huttenlocher 2004)生成

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[239529],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。