学习日记2020-10-12

显著性检测到底是什么:

观看文献有:百度百科 程明明博士网页
发展史:
在这里插入图片描述

百度百科:
1-LC:基于某个像素在整个图像上的全局对比度(直方图)灰度信息
2-HC:…(彩色信息)
3-AC:基于局部对比度
4-FT:频率角度分析图像
程明明博士网页:程明明博士
1-98PAMI在这里插入图片描述
在这里插入图片描述
2-07CVPR在这里插入图片描述
谱残差模型
H(Image)=H(Innovation)+H(Prior Knowledge)
H(Innovation)表示突出的部分,H(Prior Knowledge)则表示冗余的信息。通过去除图像冗余信息,就可以获得图像与众不同的部分,即显著目标。
自然图像的统计特性具有变换不变性:即将图像从原来的空间坐标变换到频率坐标系中,图像在空间中具有的统计特性在频域中仍然保留,这种不变性恰好保证了采用能量谱来刻画自然图像空间相关性的可靠性。
3-07CVPR
在这里插入图片描述

因此,我们将显著目标检测定义为一个二元标记问题,该问题将显著目标与背景分离开来。像人脸检测一样,我们学习检测熟悉的物体;与人脸检测不同,我们在图像中检测一个熟悉但未知的对象。我们提出了一种监督方法来学习检测图像中的突出物体。首先,我们构建了一个大型图像数据库,其中包含20,000多张标记良好的图像,用于训练和评估。据我们所知,这是第一次使用大型图像数据库进行定量评估。利用用户标记信息对显著目标检测进行监督。可以将其视为培训阶段的自顶向下信息。其次,为了克服我们不知道具体对象或对象类别是什么的挑战,我们提出了一组新的局部的、区域的和全局特征来定义一个通用的显著对象。这些特征通过条件随机域(CRF)学习得到最优组合。此外,分割还被纳入到CRF中,以检测未知大小和形状的突出目标。图1中的最后一行显示了我们的方法计算的显著性映射。
4-09CVPR
在这里插入图片描述

根据颜色和亮度属性,计算每个像素相对于其邻域的突出程度或显着性
可以找到高斯滤波图像中Lab像素向量与输入图像的平均Lab向量之间的欧式距离

在这里插入图片描述
在这里插入图片描述

5-10CVPR
在这里插入图片描述
组合创新
把face detetion, pixel level saliency map,region level saliency map简单组合起来
在这里插入图片描述

6-11CVPR
在这里插入图片描述
基于区域对比度 RC方法
HC方法

7-12CVPR
在这里插入图片描述
把显著性检测问题,特别是全局对比度计算问题,转换为一个高维的高斯滤波问题。
将这种快速高斯滤波应用到Conditional Random Field (CRF)领域

Fast High-Dimensional Filtering Using the Permutohedral Lattice(???)
8-13ICCV
在这里插入图片描述
用到的Color quantization和Gaussion Mixture Model
using a soft image abstraction representation(???)
9-17IJCV
在这里插入图片描述
在这里插入图片描述
不同特征的集成
10-15TIP
在这里插入图片描述
**

总结和比较性评测

**
11-15IJCV
在这里插入图片描述
在这里插入图片描述
超像素卷积神经网络结构,有7层,可以说七个重要的结构,首先是将输入图像划分为多维度超像素网格区域(multiscale superpixels), 再提取出两个重要序列( Color Uniqueness Sequence 和 color distribution sequence), 分布描述颜色唯一性和颜色分布性 , 将两个序列送入卷积网络(convolutional network)中 , 得到图像的分层特征(hierarchical features) , 再采用argmax对每列进行二类分布预测 , 预测其显著性 , 最后得到输出图像。
superCNN网络是一个通用显著性检测器,能适用各种场景的图像,克服了传统CNN不能用于对比信息提取和只能获取明显的特定类别的信息的问题。
文章提出的superCNN方法还是第一个使用CNN探索对比度信息的方法!
12-15CVPR
在这里插入图片描述
Global context and local context are both taken into account, and are jointly modeled in a unified multicontext deep learning framework
在这里插入图片描述
13-17CVPR
在这里插入图片描述
主要是基于HED做的改进,加入了short connections,即:将小的输出上采样到和上几层输出相同的尺寸,然后进行拼接loss部分:五个side output的输出loss,和fusion的loss进行加和,然后在我的项目中,经过测试,发现第一层的loss对结果的影响较大,所以我刻意的调高了第一层的权重占比
在这里插入图片描述
14-14arXiv
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_42732792/article/details/109028972