710 likes | 1k Views
第四章 图像分割( 4 ). 4.1 图像分割概述 4.2 阈值分割 4.3 边缘检测 4.4 区域生长 4.5 聚类分割. 4.1 图像分割概述. 1. 分割的目的 是把图像空间分成一些意义的区域,是实现识别与理解的必不可少的过程,是计算机视觉的中间层次。 图像分割的目标是把图像分成互不重叠的区域并提取感兴趣目标. 分割基于的假设: 某一对象的某一部分,其特征都是相近或相同的;不同的对象或对象的各部分之间,其特征是急剧变化的。 图像分割的策略: (1) 相似性分割 ( 区域相关分割 )
E N D
4.1 图像分割概述 • 4.2 阈值分割 • 4.3 边缘检测 • 4.4 区域生长 • 4.5 聚类分割
4.1 图像分割概述 • 1.分割的目的是把图像空间分成一些意义的区域,是实现识别与理解的必不可少的过程,是计算机视觉的中间层次。 • 图像分割的目标是把图像分成互不重叠的区域并提取感兴趣目标
分割基于的假设: 某一对象的某一部分,其特征都是相近或相同的;不同的对象或对象的各部分之间,其特征是急剧变化的。 图像分割的策略: (1) 相似性分割(区域相关分割) 将具有同一灰度级或相同组织结构的像素聚集在一起,形成图像中的不同区域。 (2)非连续性分割(点相关分割) 首先检测局部不连续性形成边界,然后通过这些边界把图像分成不同的区域。
常用分割方法 • 1)阈值分割 • 2)基于边缘检测的分割方法 • 3)区域生长 • 4)聚类分割
4.2 阈值分割 • 阈值是在分割时作为区分物体与背景像素的门限,大于或等于阈值的像素属于物体,而其它属于背景。 • 这种方法对于在物体与背景之间存在明显差别(对比)的景物分割十分有效。阈值法图像分割的关键在于阈值的确定 • 阈值可以是一个或多个,还可以是一个灰度范围
60年代中期,Prewitt提出了直方图双峰法,即如果灰度级直方图呈明显的双峰状,则选取两峰之间的谷底所对应的灰度级作为阈值。60年代中期,Prewitt提出了直方图双峰法,即如果灰度级直方图呈明显的双峰状,则选取两峰之间的谷底所对应的灰度级作为阈值。 1. 双峰法
缺点:该方法不适用于直方图中双峰差别很大或双峰间的谷比较宽广而平坦的图像,以及单蜂直方图的情况。缺点:该方法不适用于直方图中双峰差别很大或双峰间的谷比较宽广而平坦的图像,以及单蜂直方图的情况。 会受到噪声的干扰,最小值不是预期的阈值,而偏离期望的值。
单值阈值的问题 • 单值阈值只能对双峰直方图工作得较好 • 对于其它类型的直方图,需要更多的阈值
单值阈值和光照 • 不均匀的光照会使单值阈值方案失效
2. P参数法 • 若各区域面积占图像总面积的比例p已知时,可以用p参数法 • 步骤:若已知低灰度区域面积比例为p • 1. 根据灰度直方图从左到右计算直方图的累加值 • 2. 当求得C值近似等于已知的面积比例p时,查找对应的灰度级T • 3. 以T为阈值对图像进行分割 • 相反,如果已知高灰度区域面积比为p2的情况,与上述过程类似,只是第一步的累加值变为从右向左求累加
3. 最佳阈值法 思路:使图像中目标物和背景分割错误最小的阈值。 设目标灰度级分布的概率密度函数为 , 背景灰度级分布的概率密度函数为 , 目标像素占总像素数的比值为 , 则图像总的灰度级分布概率密度函数为
若选取分割阈值为 ,则背景像素错分为目标像素的概率: 同理,目标像素错分为背景像素的概率: 则总的错分概率为
寻找一个 使 取最小值; 令 得
设 , , 代入上式并取对数得 式中: , , 有两个解。
但当 ,存在唯一解 当 时 (引出了均值法、均值迭代阈值选择法)
均值迭代阈值选择法 1. 选择一个初始阈值的估计值T(一个好的初始值是灰度的均值)。 2.用该阈值把图像分割成两个部分R1和R2; 3. 分别计算R1和R2的灰度均值µ1和µ2; 4. 选择一个新的阈值T:T=(µ1+µ2)/2; 5. 重复步骤2-4直至后续的迭代中平均灰度值µ1和µ2保持不变。
4.自适应阈值 • 自适应阈值方法:当光照不均匀、有突发噪声,或者背景灰度变化比较大时,整幅图像分割将没有合适的单一门限,因为单一的阈值不能兼顾图像各个像素的实际情况。这时,可对图像按照坐标分块,对每一块分别选一阈值进行分割。这种与坐标相关的阈值也称为动态阈值方法。优缺点:时间和空间复杂度比较大,但抗噪声能力比较强,对采用全局阈值不容易分割的图像有较好的效果。
自适应阈值的选取:比较简单的方法是对每个像素确定以它为中心的一个邻域窗口,计算窗口内像素的最大和最小值,然后取它们的均值作为阈值。自适应阈值的选取:比较简单的方法是对每个像素确定以它为中心的一个邻域窗口,计算窗口内像素的最大和最小值,然后取它们的均值作为阈值。 • 对图像分块后的每一个子块可以采用直方图分析,如果某个子块内有目标和背景,则直方图呈双峰。如果块内只有目标或背景,则直方图没有双峰,可根据邻域各块分割得到的参数插值进行分割。实际的自适应阈值分割完全可以根据图像的实际性质,对每个像素设定阈值,但这个过程要考虑到实际的要求和计算的复杂度问题。
另外,类间方差最大阈值分割 • 最大熵阈值分割等将阈值选取转化为优化问题进行处理
4.3 边缘检测 • 不同的对象或对象的各部分之间,其特征是急剧变化的。 • 根据像素特征的不连续性,通过确定目标的边界实现图像分割
1.边缘检测算子 • 1)梯度算子 • 2)Robert算子 • 3)Prewitt算子 • 4)Sobel算子 • 5)Kirsch算子 • 6)拉普拉斯算子
2.基于曲面拟合的边缘检测 • 基本思想 先用一个平滑的曲面与待检测点周围某区城内像素的灰度值进行拟合,然后用这个平面或曲面的梯度代替点的梯度,从而实现边缘检测。 • 目的 以减小噪声及干扰的影响 • 曲面 一次曲面 二次曲面
一次曲面拟合: 令图像面积元由f(x, y), f(x+1, y), f(x, y+1), f(x+1,y+1)4个相邻元素组成,用一次平面ax + by + c = 0 去拟合该面积元。即用 去逼近f(x,y)。 用最小平方误差方法求参数a,b,c,即使误差极小 对上式分别对a,b,c求偏导,并令结果等于零,得关于a, b, c的3个方程组,解得
解得 由梯度定义,平面ax+ by+ cx上的梯度幅度为:
4.4 区域生长 • 基本思想 • 将具有相似性质的像素集合起来构成区域 • 串行区域法 • 步骤 • 对每个需要分割的区域找一个种子像素作为生长的起点 • 将种子像素周围邻域中与种子像素有相同或相似性质的像素合并到种子像素所在的区域内 • 把新加入的像素作为新的种子继续上面的过程,直到没有满足条件的像素加入区域
区域增长法 • 例判断准则像素与种子像素灰度差的绝对值小于阈值T (a)给出像素值为‘1’和‘5’的种子 (b)T=3,恰好分成两个区域 (c)T=1,有些像素无法判断 (d)T=6,整个图被分成一个区域
问题 • 选择或确定一组能正确代表所需区域的种子像素 • 具体问题具体分析 • 先验知识(如:军用红外图像中检测目标时,选最亮的像素作为种子) • 无先验知识(可根据直方图选取灰度中像素个数多的像素作为种子) • 确定在生长过程中能将相邻像素合并的准则 • 具体问题相关(目标和背景的像素分布特点) • 图像数据种类(单色、灰度还是彩色) • 像素间的连通性和邻近性 • 制定让生长过程停止的条件或规则 • 一般是没有满足生长的像素 • 应考虑图像的局部性质(灰度、纹理和彩色) • 目标的全局性质(尺寸、形状等)
生长准则和过程 • 区域生长的关键是选择合适的生长或相似准则 • 1、基于区域灰度差 • 基本方法:种子像素的灰度值与邻域像素的差 • 改进:先合并具有相同灰度的像素,然后求出所有邻接区域间的平均灰度差,并合并最小灰度差的邻接区域,重复上述步骤直到没有区域合并。 平均灰度的均匀测度度量可以作为区域增长的相似性检测准则。 设某一图像区域O,其中像素数为N,均值表示为
区域O均匀测度度量: 上式可解释为:在区域O中,各像素灰度值与均匀值的差不超过某阈值K,则其均匀测度度量为真。 • 2、基于区域灰度分布统计性质 • 基本方法:以灰度分布相似性作为生长准则来决定区域的合并步骤: • 1、把图像分成互不重叠的小区域 • 2、比较邻接区域的累积灰度直方图,根据灰度分布的相似性进行区域合并 • 3、重复2,直到满足终止条件
灰度分布相似性的两种检测方法: • (1)Kolmogorov-Smirnov 检测 • (2)Smoothed-Difference检测
4.5 聚类分割 • 聚类分析是多元统计分析的方法之一,也是统计模式识别中一个重要分支。它试图根据数据集的内部结构将数据集分成不同的几个子类,使得在同一类的样本尽可能的相似,在不同类的样本尽可能的相异。
相似性度量 • 在确定数据集中样本相似性程度时,距离是常用的测度之一,一些重要距离测度有: • 欧式距离、Minkowski距离、Chebychev距离、平方距离、非线性测量以及概率距离测度(如Bhattacharyya距离、散度、Chernoff概率距离以及Mahalanobis距离等)
欧式距离: • 二维的公式是 d = sqrt((x1-x2)2+(y1-y2)2)
目前已提出许多方法来解决聚类问题,大体上可分为硬聚类方法和模糊聚类方法两类。聚类方法的分类如图目前已提出许多方法来解决聚类问题,大体上可分为硬聚类方法和模糊聚类方法两类。聚类方法的分类如图
划分聚类算法是将数据集分成若干子集。其中每个子集至少包含一个元素,而数据集中每个元素必须属于且只属于一个子集。划分聚类算法是将数据集分成若干子集。其中每个子集至少包含一个元素,而数据集中每个元素必须属于且只属于一个子集。 • 给定数据集X以及类别数目k,划分方法是由一个初始划分开始,通过优化一个评价函数把数据划分为若干子类,因此事实上把聚类问题转化成优化问题。 • 划分聚类方法输出的是多个互不相交的聚类集,常用的基于划分的聚类方法有最近邻法、最大最小距离法、k-均值法(k-means)、k-中心法(k-medoid)、CLARA方法等
层次聚类方法根据数据集内部相似性,对给定的数据集按层次进行分解,结果形成一棵以数据子集为节点的类别树。层次聚类方法根据数据集内部相似性,对给定的数据集按层次进行分解,结果形成一棵以数据子集为节点的类别树。 • 该过程可通过合并(agglomerative)和分裂(divisive)两种途径实现。由于一个步骤完成就不能被撤销,不用担心组合数目的不同选择,所以计算代价会较小,但是该技术的一个主要问题是它不能更正错误的决定。现在比较常用的层次聚类方法有BIRCH (balanced iterative reducing and clustering using hierarchies)[[i]],CURE (clustering using representatives)[[ii]]等
[[i]] Brandtberg Tomas, Individual tree-based species classification in high spatial resolution aerial images of forests using fuzzy sets. Fuzzy sets and systems. 132(3), 2002, pp.371-387 • [[ii]] Guha Sudipto, Rastogi Rajeev, Shim Kyuseok. Cure: an efficient clustering algorithm for large databases. Information systems. 26(1), 2001, pp.35-58
基于密度的聚类方法与其他方法的一个根本区别是:它不是基于各种各样距离作为相似性度量,而是基于密度。基于密度的聚类方法与其他方法的一个根本区别是:它不是基于各种各样距离作为相似性度量,而是基于密度。 • 基于密度的算法从数据对象的分布密度出发,把密度足够大的区域连接起来,从而可以发现任意形状的类。该方法能克服基于距离的算法只能发现“类圆形”聚类的缺点,可以发现任意形状的聚类,还能够有效去除噪声。具有代表性的基于密度的方法有:DBSCAN (density based spatial clustering of applications with noise) [[i]]、OPTICS (ordering points to identify the clustering structure)[[ii]]、OETICS (ordering edges to identify clustering structure)[[iii]] DENCLU (density based clustering)[[iv]]等
[[i]] Daszykowski M., Walczak B., Massart D.L. Representative subset selection. Analytica Chimica Acta, 468(1),2002, pp. 91-103 • [[ii]] M. Ankerst, M.M. Breunig, H.P. Kriegel, J. Sander. OPTICS: Ordering points to identify the clustering structure. Proceedings of the ACM SIGMOD’99 International Conference on Management of Data, Philadelphia, PA, 1999, pp.49-60 • [[iii]] Forina Michele, Cerrato Oliveros M. Concepcion, Casolino Chiara, Casale Monica. Minimum spanning tree: ordering edges to identify clustering structure. Analytica Chimica Acta. 515(1)2004, pp.43-53 • [[iv]] Hinneburg A., Keim D.A. An efficient approach to clustering in large multimedia databases with noise. Proc Int. Conf. Knowledge discovery and data mining(KDD’98)pp.58-65