SVD与KFDA相结合人脸识别-matlab-毕业论文 联系客服

发布时间 : 星期六 文章SVD与KFDA相结合人脸识别-matlab-毕业论文更新完毕开始阅读9730b90d79563c1ec5da7197

XXXXxx毕业设计(论文)

r||D||??i?k?12?i

即后面的r - k个奇异值的平方和。这样,当奇异值?i(1?i?r)按从大到小的顺序排列时, 用式(3)近似表示图像A 的所损失的能量是很小的。

文献[10]中Hong首次将奇异值向量作为图像的一种代数特征,证明其具有稳定性、旋转、平移和镜像变换不变性等良好性质,并用于人脸识别中。基于此,大量的研究将奇异值向量作为图像的一种有效代数特征用于人脸识别。但是,文献[13]的研究表明,图像的奇异值向量并非包含了图像的足够信息,图像的大量信息主要体现在图像矩阵奇异值分解的两个正交矩阵中,并提出了一种基于投影系数向量的人脸识别方法。但是奇异值分解用于人脸识别有其不足之处:

1. 投影基空间不一致

2. 特征缺少类别信息这限制了识别率的进一步提高 。

2.2 主分量分析(PCA)方法

PCA算法(Principle component Analysis)是一种主成分分析的算法[14]。PCA 方法是由Turk 和Pentlad 提出来的,它的基础就是Karhunen-Loeve 变换(简称KL变换),是一种常用的正交变换。这种方法将包含人脸图像区域看作一种随机向量,因此可以采用KL变换得到正交变换基,对应其中较大的特征值的基底具有与人脸相似的形状。PCA算法利用这些基底的线性组合可以描述、表达人脸和逼近人脸,因此可以进行人脸的识别和重建。识别过程就是把待识别人脸映射到由特征脸张成的子空间中,与库中人脸的子空间位置进行比较。人脸的重建就是根据待识别人脸在子空间的位置,还原到人脸空间中。

完整的PCA 人脸识别的应用包括几个步骤距离函数进行识别。

(1) 读入人脸库

归一化人脸库后,将库中的每人选择一定数量的图像构成训练集,其余构成测试集。设归一化后的图像是n?m,按列相连就构成N?n?m 维矢量,可视为N 维空间中的一个点,可以通过K-L 变换用一个低维子空间描述这个图像。

(2) 计算 K- L 变换的生成矩阵

所有训练样本的协方差矩阵为(以下三个等价):

CA?MT?T???xk?xk?/M?mx?mx?k?1?T[4]

:人脸图像预处理;读入人脸库,训练

形成特征子空间;把训练图像和测试图像投影到上一步骤中得到的子空间上;选择一定的

(4)

CA??A?A?/M (5)

6

XXXXxx毕业设计(论文)

CA?MT?????xi?mx?(xi?mx)?/M?i?1? (6)

A???1,?2,...,?M?,?1?xi?mx,mx是平均人脸, M 训练人脸数,协方差矩阵 CA 是一个

N?N的矩阵, N 是xi 的维数。为了方便计算特征值和特征向量,一般选用公式(5)。

根据K - L 变换原理,我们所求的新坐标系即由矩阵A?AT 的非零特征值所对应的特征向量组成。直接求N?N大小矩阵CA的特征值和正交归一特征向量是很困难的, 根据奇异值分解原理,可以通过求解AT?A的特征值和特征向量来获得A?AT的特征值和特征向量。在计算得到 CA的所有非零特征值??0,?1,...,?r?1? (从大到小排序,1?r?M)及其对应的单位正交特征向量?u0,u1,...,ur?1? 后,可以得到特征空间U??u0,u1,...,ur?1??RN?r从而可以计算一张图片X在特征空间上的投影系数(也可以理解为X在空间U中的坐标):

Y?U?X?RTr?1 (7)

(3) 识别

利用公式(7),首先把所有训练图片进行投影,然后对于测试图片也进行同样的投影,采用判别函数对投影系数进行识别。

2.3 Fihser线性鉴别分析

PCA以能够提取均方误差最小意义下最佳表达数据的特征,然而该特征并不是最有利于分类的特征。而判别分析的目的可以总结为:找到一个能够返回某种度量值的函数,而且该度量值能够成为区分样本不同类别的依据。这些依据可以用来训练分类器,或者提取特征。因此,判别分析可以理解为一种监督学习或者特征提取方式。

在应用统计方法解决模式识别问题时,一再遇到的问题之一就是维数问题。在低维空间里解析上或计算上行的通的方法,在高维空间里往往行不通。因此,降低维数有时就成为处理实际问题的关键。

我们可以考虑把d维空间的样本投影到一条直线上,形成一维空间,即把维数压缩到一维。这在数学上总是容易办到的。然而,即使样本在d维空间里形成若干紧凑的互相分得开得集群,若把它们投影到一条任意得直线上,也可能使几类样本混在一起而变得无法识别。但在一般情况下,总可以找到某个方向,使在这个方向的直线上,样本的投影能分开的最好。问题是如何根据实际情况找到这条最好的、最易于分类的投影线。这就是Fisher法要解决的基本问题。

7

XXXXxx毕业设计(论文)

设d维空间内共有n个训练样本X?{xij},i?1,2,...,c,j?1,...,ni,xij为第i类 的第j个样本,分为C类,n为第i类样本数目,X为第i类样本集。

(l)第i类的样本均值向量mi:

mi?1ni?x (8)

ijj?1ni(2)总体样本均值向量m:

m?1nn?x (9)

iji?1(3)样本类内离散度矩阵Si又和总类内离散度矩阵Sw,为:

Si?1nic?xij?mi??xij?mi?T , i?1,2,...,c (10)

Sw??PSii?1i?1c??n(xkl?mi)(xkl?mi)T (11)

i?1xkl?Xi反映了各分量到各类中心的平均平方距离,其秩不大于n-c。 (4)样本的类间离散度矩Sb:

Sb?1ciin(m?ni?1?m)(mi?m)T (12)

反映了各类中心到总体中心的平均平方距离,其秩不大于c-1。 (5)总的散度矩阵(协方差矩阵) St:

St??11cniij??(xni?1niijj?1cj?1niij?m)(xij?m)T??(xni?1c?mi?mi?m)(xij?mi?mi?m)?mi)(xij?mi)?TT (13)

T?1??(xni?1j?11cnii??(mni?1j?1?m)(mi?m)?Sw?Sb反映了各分量总的平均方差,其秩不大于n-1.

Fisher判别的目的是找一个最优的鉴别向量集W,W??w1,...,wk?,它的每一个列向量就是一个鉴别方向。将样本数据投影到这些方向上,使得映射后的类间离散度矩阵和类内离散度矩阵的比值最大。

8

XXXXxx毕业设计(论文)

Fisher准则函数定义为

J(w)?argmaxw|wSbw||wSww|TT (14)

其中Sw,Sb、分别是训练样本的总的类间散度矩阵和总的类内散度矩阵。式(14)中的J(w)是广义的Rayleigh熵,可以用Lagrange乘子法求解,令分母等于非零常数,即令

wSww?C?0,定义Lagrange函数为:

TL(w,?)?wSbw??(wSww?C) (15)

TT式中几的为Lagrange乘子。将式(15)对w求偏导,得:

?L(w,?)?w?Sbw??Sww (16)

令其偏导数为零,得: Sbw*??Sww*?0,即:

Sbw??Sww** (17)

?1其中w*即为J(w)取得最大值时的w。在Sw非奇异的时候,式16)两边乘以Sw可得

SwSbw??w?1** (18)

?1Sb的特征值问题。 求解式(14)卿为求解一般矩阵Sw?1Sb的特征值问题。综上所述,当Sw非奇异时,在数学上,求解(14)式就等同于求解Sw?1Sb的最大k个特征值的特征向量即为对应于Fisher线性判别准则的鉴别向量W。对应矩阵Sw

2.4 SVD与KFDA相结合人脸识别

现有的线性投影分析在人脸检测、人脸识别等问题中己得到成功的应用,但其缺点也很明显:首先,它们在表示模式特征时都是基于二阶统计量,对于图像而言,没有考虑多个像素的高阶统计相关性,而该相关性包含了对识别结果起着重要作用的在图像的边缘或曲线上多个像素点之间的非线性关系。另外,线性投影分析都是基于线性投影的特征抽取方法,抽取得到的都是线性特征,而在人脸识别过程中,由于光照、姿态、表情等不同引起人脸图像的差异造成人脸图像的分布是非线性的,结果通常不能令人满意。

核方法[20]是一系列先进非线性数据处理技术的总称,它最早应用于支持向量机

(SVM)中,在模式识别、回归估计等方面都有着成功的应用,其共同特征是在数据处理方法都应用了核映射。它在解决非线性问题时的基本思想是,首先通过适当的非线性映射函数将非线性可分的原始输入空间变换到某一线性可分的高维(甚至为无限维)特征空间,

9