第8章遥感图像分类.ppt
《第8章遥感图像分类.ppt》由会员分享,可在线阅读,更多相关《第8章遥感图像分类.ppt(75页珍藏版)》请在课桌文档上搜索。
1、1,遥感数字图像处理,2,第8章 遥感图像分类,3,第8章 遥感图像分类,8.1 概述8.2 相似性度量8.3 工作流程8.4 非监督分类8.5 监督分类8.6 其他分类方法8.7 分类后处理8.8 分类精度分析,4,8.1 概述,8.1.1 基本原理8.1.2 分类方法,5,8.1 概述,8.1.1 基本原理同类地物在相同的条件下(光照、地形等)应该具有相同或相似的光谱信息和空间信息特征。不同类的地物之间具有差异根据这种差异,将图像中的所有像素按其性质分为若干个类别(Class)的过程,称为图像的分类。遥感图像分类以每个像素的光谱数据为基础进行。假设遥感图像有K个波段,则(i,j)位置的像素
2、在每个波段上的灰度值可以构成表示为X=(x1,x2,xk)T,包含X的K维空间称为特征空间,这样K个波段的多光谱图像便可以用K维特征空间中的一系列点来表示。在遥感图像分类问题中,常把图像中的某一类地物称为模式,而把属于该类中的像素称为样本,X=(x1,x2,xk)T 可以称为样本的观测值。,6,8.1 概述,8.1.2 分类方法根据是否需要分类人员事先提供已知类别及其训练样本,对分类器进行训练和监督,可将遥感图像分类方法划分为监督分类和非监督分类。事先己经知道类别的部分信息(即类别的先验知识),对未知类别的样本进行分类的方法称之为监督分类(Supervised Classification)。
3、事先没有类别的先验知识,对未知类别的样本进行分类的方法称之为非监督分类(Unsupervised Classification)根据分类使用的统计数学方法可以分为随机统计方法和模糊数学方法分类。前者以随机数学理论为基础,包括K-均值分类、最大相似性分类等。后者以模糊数学理论为基础,主要是模糊分类。,7,8.1 概述,8.1.2 分类方法根据一个像素被分到一个类还是多个类,可将遥感图像分类方法分为硬分类和软分类。图像上的一个像素只能被分到一个类的分类方法称为硬分类(hard classification)。传统的统计分类方法都是硬分类。硬分类有时可能不合理。因为有些像素可能同时具有两个类或多个类
4、的性质。图像上的每一个像素可以同时被分到两个或两个以上类的分类方法,称为软分类(soft classification),这时每个像素除了被分类外,还同时允许它在不同的两个或多个类中具有隶属概率(class membership probability)或部分隶属值(partial Membership value)。这是对硬分类不合理一面的一种较合理的解决方式。,8,8.2 相似性度量,距离是常用的相似性度量的概念。分类是确定像素距离哪个点群中心较近,或落入哪个点群范围可能性大的问题。像素与点群的距离越近,那么,属于该点群的可能性越高。按照一定的准则,当距离小于一定值时,像素被划分给最近的点
5、群。每个点群为一个类。同一类别中点间的距离一般来说比不同类别点间距离要小。也可以认为,一个点属于某一类,一定与这个类别中心的距离比与其他类别中心的距离小。因此,在点群(团)中心已知的情况下,以每个点与点群中心的距离作为判定的准则,就可以完成分类工作。运用距离判别函数时,要求各个类别点群的中心位置己知。对于光谱特征空间中的任一点k,计算它到各类中心点的距离d。若didj,则k像素属于i类而不属于j类,此处,判别准则为didj,9,8.2 相似性度量,dik为当前像素i到类k的距离,P为波段数,xij为像素i在j波段的像素值,Mjk为类k在波段j的均值。,2.欧氏(Euclidean)距离,1.绝
6、对距离,该距离是平面上两点之间的直线距离,应用最多。,10,8.2 相似性度量,3.马氏(Mahalanobis)距离,马氏距离是一种加权的欧氏距离,它通过协方差矩阵来考虑变量的相关性。这是由于在实际中,各点群的形状是大小和方向各不相同的椭球体,如图所示,尽管K点距MA的距离DA比距MB的距离DB小,即DADB,但由于B点群比A点群离散得多,因而把K点划入B类更合理。加权可以这样理解,计算的距离与各点群的方差有关。方差愈大,计算的距离就愈短。如果各个点群具有相同的方差,则马氏距离是欧氏距离的平方。,11,8.2 相似性度量,3.马氏(Mahalanobis)距离,12,8.2 相似性度量,4.
7、相似系数,又称为余弦距离,其数学表达式为:,为图像像素光谱与参照光谱之间的夹角(光谱角)X为图像像素光谱曲线向量Y为参照光谱曲线向量。当cos的值接近1的时候有最好的估计光谱值和类别分类结果。光谱角值以很小的弧度角来表示,它代表了光谱曲线之间的相似性,其变化范围是0,/2,13,8.3 工作流程,图像的预处理,选择分类方法,特征选择和提取,选择合适的分类参数进行分类,分类后处理,成果输出,1.确定工作范围,2.多源图像的几何配准,3.噪声处理,4.辐射校正,5.几何精纠正,6.多图像融合,特征选择是从众多特征中挑选出可以参加分类运算的若干个特征。,特征提取是在特征选择以后,利用特征提取算法(如
8、主成分分析算法)从原始特征中求出最能反映地物类别性质的一组新特征。,特征选取的原则:尽可能选取数量适当有助于增加同类地物的类聚性(即类内个体间离散性小)、能扩大地物类别之间差异性的特征变量。,14,8.4 非监督分类,根据事先指定的某一准则,让计算机自动进行判别归类,无需人为干预,分类后需确定地面类别。在非监督分类中,先确定光谱可分的类别(光谱类)然后定义它们的信息类。,15,8.4 非监督分类,非监督分类,是指人们事先对分类过程不施加任何的先验知识,仅凭据遥感影像地物的光谱特征的分布规律,随其自然地进行盲目的分类。其分类的结果,只是对不同类别进行了区分,并不确定类别的属性,其属性是通过事后对
9、各类的光谱响应曲线进行分析,以及与实地调查相比较后确定的。非监督分类的理论依据:遥感图像上的同类地物在相同的表面结构特征、植被覆盖、光照等条件下,一般具有相同或相近的光谱特征,从而表现出某种内在的相似性,归属于同一个光谱空间区域;不同的地物,光谱信息特征不同,归属于不同的光谱空间区域。由于在一幅复杂的图像中,训练区有时不能包括所有地物的光谱样式,这就造成了一部分像元找不到归属。在实际工作中为了进行监督分类而确定类别和训练区的选取也是不易的,因而在开始分析图像时,用非监督分类方法来研究数据的本来结构及其自然点群的分布情况是很有价值的。,16,8.4 非监督分类,非监督分类主要采用聚类分析的方法,
10、聚类是把一组像素按照相似性归成若干类别。它的目的是使得属于同一类别的像素之间的距离尽可能小,而不同类别上像素间的距离尽可能大。在进行聚类分析时,首先要确定基准类别的参量。在非监督分类的情况下,并无基准类别的先验知识可以利用,因而,只能先假定初始的参量,并通过预分类处理来形成集群,再由集群的统计参数来调整预制的参量,接着再聚类,再调整。如此不断地迭代,直到有关参数达到允许的范围为止。所以说,非监督算法的核心问题是初始类别参数的选定,以及它的迭代调整问题。,17,8.4 非监督分类,主要过程如下:(1)确定初始类别参数,即确定最初类别数和类别中心(集群中心)(2)计算每一个像元所对应的特征矢量与各
11、集群中心的距离。(3)选与中心距离最短的类别作为这一矢量的所属类别。(4)计算新的类别均值向量。(5)比较新的类别均值与原中心位置上的变化,若位置发生了改变,则以新的类别均值作为聚类中心,再从第2步开始重复,进行反复迭代操作。(6)如果聚类中心不再变化,计算停止。,18,8.4 非监督分类,8.4.1 初始类别参数的选定8.4.2 常用非监督分类算法,19,8.4 非监督分类,8.4.1 初始类别参数的选定初始类别参数是指基准类别集群中心(数学期望Mi),以及集群分布的协方差矩阵i。因为无论采用何种判别函数,都要预先确定其初始类别的参量。以下为几种常用的方法。1.像素光谱特征的比较法2.总体直
12、方图均匀选心法3.最大最小距离选心法4.局部直方图峰值定心法,20,8.4 非监督分类,8.4.1 初始类别参数的选定1.像素光谱特征的比较法首先,在遥感图像中定义一个抽样集,它可以是整幅图像的所有像素,但通常是按一定间隔抽样的像素。然后,选定抽样集中任一像素作为第一个类别;给定一个光谱相似性比较阈值;依次把抽样集中每个像素的光谱特征与已建起的初始类别比较,若该像素与其中一个初始类别相似,则作为该类集群中的一个成员,若不与任何一个相似,则以该像素建立一个新的初始类别。当以上聚类过程完成后,每个已经建立起来的初始类别都包含了一定成员,依据此可统计其集群中心(数学期望Mi)和协方差矩阵i。,21,
13、8.4 非监督分类,8.4.1 初始类别参数的选定2.总体直方图均匀选心法该方法是在整幅遥感影像的总体直方图的基础上进行类别中心的选定的。设总体直方图的均值和方差分别为:,式中,i为波段号;j为像素点号;为像素i在第j波段的亮度值;n为波段数;N为像素总数。,22,8.4 非监督分类,8.4.1 初始类别参数的选定2.总体直方图均匀选心法,用作图法不难证明,该法所选定的初始类别中心通过整体集群中心的一条直线均匀散布的,并基本上包括在整体集群的范围之内,现假设我们需要Q个初始类别,每个初始类别集群中心可按下式确定:,例如,Q=4时,23,8.4 非监督分类,8.4.1 初始类别参数的选定3.最大
14、最小距离选心法,该法的选心原则是使各初始类别之间,尽可能地保持远距离,为做到这一点,首先在整幅图像中按一定方式(如等间隔方式)获取一个抽样点像素集合,式中n为抽样个数,24,8.4 非监督分类,8.4.1 初始类别参数的选定3.最大最小距离选心法,按以下步骤进行选心处理:1)取抽样集中任一像素之特征点作为第一个初始类别中心 2)计算与其他各抽样点之间的距离D。取与之距离最远的那个抽样点(例如)作为第二个初始类别中心,即若,则,25,8.4 非监督分类,8.4.1 初始类别参数的选定3.最大最小距离选心法,3)对于剩余的每个抽样点,计算它到已有各初始类别中心的距离 m为已有初始类别数,并取其中的
15、最小距离 作为该点的代表距离,式中:m为已形成的初始类别数。4)在此基础上,再对所有各剩余点的最小距离进行相互比较,取其中最大者,并选择与该最大的最小距离相应的抽样点(例如)作为一个新的初始类别中心点(例如)。重复以上步骤,直到初始类别的个数达到需要的个数为止。,26,8.4 非监督分类,8.4.1 初始类别参数的选定4.局部直方图峰值定心法,由于整幅遥感图像总体直方图的分布是由各类别直方图叠加而形成的。同时,每个类别的集群中心一般位于本类别直方图的峰值位置,而在该位置处的总体直方图往往会出现局部峰值。因而,该法便以搜索总体直方图局部峰值为原理来选定初始类别的中心。其基本过程包括:图像数据抽样
16、集的获取,建立总体直方图以及搜索直方图局部峰值3个步骤。,27,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法2、ISODATA分类算法,28,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法K-均值(K-Mean)算法的聚类准则是使每一分类中,像素点到该类别中心的距离的平方和最小。K-均值算法基本思想是:通过迭代,移动各个基准类别的中心,直至得到最好的聚类结果为止。,29,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法收敛条件:对于图像中互不相交的任意一个类,计算该类中的像素值与该类均值差的平方和。将图像中所有类的差的平方
17、和相加,并使相加后的值达到最小。设图像中总类数为m,各类的均值为C,类内的像素数为N、像素值为f,那么,收敛条件是使得下式达到最小:,30,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,31,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤,任选k个初始聚类中心:(上角标记载为寻找聚类中的迭代运算次数)。一般可选定样本集的前k个样本作为初始聚类中心,也可用前面所述的方法进行初始聚类中心的选择,如最大最小距离选心法。,A)Cluster centres are arbitrarily assigned,32,8.4 非监督分类,8.
18、4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤,设已进行到第 t 步迭代。若对某一样本X有 则X,其中 是以 为聚类中心的样本集。以此种方法将全部样本分配到k个类中。,B)Each pixel is assigned to the nearest cluster centre in data space,33,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤,计算各聚类中心的新向量值,式中 为 中所包含的样本数。因为在这一步要计算k个聚类中心的样本均值,故称为K-均值算法。,C)The cluster means are then calc
19、ulated and the pixels are reassigned to the new cluster centres,34,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法K-均值算法步骤,若,j=1,2,k,则回到第二步,将全部样本n重新分类,重复迭代计算。若,j=1,2,k,则结束。,D)The process is repeated until when the cluster centres move by less than a preset distance,35,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,36,8.4
20、非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,37,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,38,8.4 非监督分类,8.4.2 常用非监督分类算法1、K-均值分类算法,可以看到,现在的每个像素都己经被分给距离最近的类,总的离差平方和最小,因此分类过程到此结束。最终得到K=2个类为(A)和(BCD)。,39,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法迭代自组织的数据分析算法(Iterative Selforganizing Data Analysis Techniques Algorithm)亦称ISODATA
21、算法。此种算法与K-均值算法有相似之处,即聚类中心也是通过样本均值的迭代运算来决定的,但ISODATA算法加入了一些试探性步骤和人机交互功能,能吸取中间结果所得到的经验,主要是在迭代过程中可将一类一分为二,亦可能将二类合二为一,亦即“自组织”,故这种算法已具有启发式的特点。,40,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,N所要求的类别数(实际的类别数目为Nt);I允许迭代的次数(实际已迭代的次数为L);Tm每类集群中样本的最小数目;Ts 集群分类标准,每个类的分散程度的参数(如最大标准差);Tc 集群合并标准,即两个类中间的最小距离。,第一步:指定算法控制
22、参数,41,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,第二步:聚类处理 在已选定的初始类别参数的基础上,按任一种距离判别函数进行分类判别,从而获得每个初始类别的集群成员。同时,对每一类集群(i)累计其成员总数(ni)、总亮度(xij)及总亮度平方(xij2),并按下式计算各类的均值M和方差2:,然后将有关数值填入类别参数搜索表,j为波段序号,42,8.4 非监督分类,8.4.2 常用非监督分类算法2、ISODATA分类算法,第三步:类别的取消处理 对上次趋近后的各类成员总数 ni 进行检查,若 niTm 表示该类(i)不可靠,应将其从搜索表中删除。同时修改类
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 遥感 图像 分类
链接地址:https://www.desk33.com/p-756152.html