【word】 基于加权最小平方误差boosting的人脸检测
基于加权最小平方误差boosting的人脸检
测
第26卷第3期
2008年6月
嘉应学院(自然科学)
JOURNALOFJIAYINGUNIVERSITY(NATURALSCIENCE)
Vo1.26No.3
Jun.2oo8
基于加权最小平方误差boosting的人脸检测
.钟向阳,胡仕明
(嘉应学院计算机科学与技术系,广东梅州514015)
[摘要]近年来Adaboost算法被成功地用于人脸检测中,本文给出了一种基于加权最小平方误差boos.
ring算法的人脸检测.首先本方法在每一次循环中用加权最小平方误差准则训练弱假设,与原始Ada.
boost算法不同的是弱假设的生成不仅用于预测分类,而且用于估计每次预测的自信率,然后由这组合
自信率的弱假设集成构造出强分类器.实践表明基于加权最小平方误差boosting算法的分类器有较高
的检测率和较低的正样本误检率.
[关键词]人脸检测;Adaboost;boosting算法;加权最小平方误差
[中图分类号]TP391.41[文献标识码]A[文章编号]1006—642X(2008)03—0089—04
O引言
人脸检测问题研究具有很重要的意义,可以应用到人脸识别,新一代的人机界面,安全访问和视
觉监控以及基于内容的检索等领域.2O世纪9O年代出现了不少人脸检测的方法…,这些方法取得
了一定的精度,但检测速度较慢.2001年,PaulViola和MichaelJones提出了一种实时的人脸检测系
统【2,解决了检测速度的问题,同时取得了较好的检测效果.该人脸检测系统是一种综合了矩形特
征与积分图,Adaboost算法,Cascade分类器的实时系统,其中Adaboost算法是一种自适应的boosting
算法,利用该算法可以将一组弱学习算法提升为一个强学习算法,基本思想是当分类器对某些样本
正确分类时,减少这些样本的权值;当错误分类时,则增加这些样本的权值,让学习算法在后续的学
习中集中对比较难的训练样本进行学习,最终得到一个识别准确率理想的分类器.
早在1997年Freund和Schapire【3就提出了Adaboost算法,2000年JeromeFriedman【4等从统计
学的角度解释了boosting方法,系统地介绍了DAB(DiscreteAdaboo
的选择,权系数的;确定,样本权重的更新三部分.
弱分类器的选择是根据正负样本的分布D寻找最优的h().在Viola的方法中,每一轮弱分
[收稿日期]2008一o4一O1
[作者简介]钟向阳(1971一),男,广东梅州人,讲师,硕士,主要研究方向:图像处理的模式区别.
一
89—
类器的选择是从样本特征值集中根据分类错误最小准则来挑选的,其准则函数为:
,=min.8?Ih(xf,P,)一YI,
其中弱分类器h)=<p肭特为阖值,l为方向指旒权系
数.Viola的方法是首先对于每个特征厂计算所有训练样本的特征值,并将其按顺序排队;然后在分
类错误最小准则下从头到尾扫描一遍已排好序的特征值,通过计算:
e=rain(S+(一一S一),S一+(,S)),
其中S,S一分别表示在此元素前的人脸及非人脸样本的权重和,,一为全部人脸及非人脸样本的
权重和.由此计算出的最小误差对应的特征值作为最佳分类阀值,所得到的弱分类器h()可在
当前元素处把样本分开一即0前的所有元素分类为人脸(或非人脸)特征,而0后的所有元素分类为
非人脸(或人脸)特征,这样就得到了一个最佳弱分类器.
确定了弱分类器h()后,由于h()被限制为{0,1}二值,需要选择一个参数O/?R来估计
h()的重要程度,由最小化误差函数z(O/)=D(i)e’(令一阶导数Z’(O/)=0)可求得O/=
In(_/2).这样,经过次循环后,用加权多数投票把个弱分类器的输出联合起来得到强分类
器H()=sign(?h()).
确定了当前的Ol和ht()后,AdaBoost方法更新样本对应的权重….=?卜,式中=(1
一
)一,如果第i个样本被正确分类,则=0,反之e=1,让学习算法在后续的学习中集中对比
较难的训练样本进行学习而进入下一轮循环.
2基于加权最小平方误差boosting方法的原理
JeromeFriedman等在2000年从统计学的角度解释了boosting方法,将Adaboost方法看成是对指
数误差准则函数_,(F)=E(e-yF(x))最小化的一种优化,其中E代表期望.设,厂2,…代表一组弱
假设,则强假设F()=?()是由这组弱假设构成的集成假设,假定已有当
前的估计F,通过最
小化准则函数:
_,(F+=EVe—y’’),(](I)
来寻求改进F+厂,最优化的常见方法有最陡下降法,牛顿迭代法等,
文献采用自适应牛顿迭代法来
优化准则函数_,(F+,由牛顿法可求得:
F()+--F()一日()一s().
由——阶导数s()=鱼I):.=一E[e—y,)),I]
-
g?-~tH()=鱼I,():.=E[e-Ye(‘)Ix]
删)?+[ylx](2)
其中Ew[ylx]表示加权e一h的条件期望,由此可得弱假设为:
)=E[e一),]{E[e一]},=E[ylx].
每次迭代的权值修改由下式:
r+l=f?e一’
,(3)
一
90—
为了优化弱假设),将准则函数J(F+展开成关于)=0的二阶式,由此估
计出):
)乍arg呼以[(),一))I](4)
3基于加权最小平方误差boosting方法的实现
参考上述的原理,本文采用基于加权最小平方回归方法进行弱学习,利用弱学习得到样本特征
的自信率(本文用样本特征的相似程度描述)预测弱假设),这样弱假设)可以定义在整个实
数范围内而不是被限制在二值,即)不仅可用于对样本分类,且可以对弱分类器的重要程度进行
度量,并由这组包含自信率的弱假设集成构造出强分类器.
首先,弱分类器的选择采用了基于加权最小平方回归的方法.根据加权最小平方回归的方法,
当满足minE(Y一))I]时估计出最优弱假设).与Viola的方法相同,首先从头到尾扫描
一
遍排序好的特征值,然后利用加权最小平方回归方法计算下式的最优值,结果对应的特征值作为
分类阀值0可将样本特征分为人脸特征或非人脸特征.
,=?l[(Y—,)+(Y一)]
式中,和f为当前所选阀值0前和0后两边正例和反例样本分布的加权密度估计,其中:
一丝n一互?!.一
?:l’一?—lf
‘
由此得出的弱假加鬈,为分类阀值,棚样本特征值,和表示
对人脸样本特征或非人脸样本特征的相似程度,可用于度量当前()的重要性,即自信率.
其次,调整输出强分类器为sign[F?]=sign[T圳.由于弱假设
是准则函数rainZ,~.[(Y一)+(Y-g)]下求得的实值函数,,和反映对人脸特征或非人
脸特征的的相似程度,因此可直接由T个弱假设()叠加生成的m;n个样本特征毋,_『=0,1,…,rt;所
有样本初始化权值.,循环次数
r1/2uifYf=1
1<
‘【1/2vifY,=一1
STEP2:fort=1,2,….,T反复在当前权重分布下训练弱假设():
1)对所有样本的特征值g()进行由小到大排序.
2)f0rJ=1,…,rt;(按已排序好的特征值从头到尾对于每个特征扫描一遍)
a.计算该特征g,()下所有正例(),=1)和反例(),=一1)样本分布的加权密度估计情况:
B=t(.,.),…,(,)].:
,=?:l?Y(?:l)一,=?I+l?Y(I;7_-I+l)一;’
一
9】一
b.对所有特征用加权最小平方回归法计算加权的密度估计B与Y的误差函数:
占=ZiL1W(Y—)+(Y一卢]粥
c.从{占.,s,…,占,)中搜索出最小误差对
应的特征值:=argmin{占,…,).
3)求得最佳弱假设()及其阀值0:.
胁溺嘲88
4)F()=F()+().s
5)样本权重的修改W…=W.Xe-yf(xi)82
6)重新归一化W川=W/?W
STEP3:F()=?:()
0501001502002503O0350
图1两种算法
输出强分类器为sign[F()]={l_】?,为强分类器阀值.输出强分类器为[()]={.,:’,为强分类器阀值.’,,U
4算法的性能测试
为检测加权最小平方误差boosting算法的性能,本文参考Viola的方法训练生成了两组人脸检测
器并进行了验证.第一组基于Adaboost算法,第二组基于加权最小平方误差boosting算法,实验采用
的训练集中,正样本采用5000幅人脸图像,负样本采用5000幅非人
脸图像,每幅样本图像大小为
24X24像素,共提取45936个矩形特征,生成了32级的人脸检测器.
对所生成人脸检测器的验证
采用了CMU正面人脸测试集,该测试集包含130幅灰度图像(有507
个人脸),检测结果如图1.如
当检测率为90%时,第一组误检的正样本为61个,正样本误检率为
3.227181×10,,第二组误检的
正样本为39个,正样本误检率为2.063279X10,.实验结果表明,基于
加权最小平方误差boosting
算法的检测器与基于Adaboost算法相比,在相同的检测率下可得到
较低的正样本误检率.
[参考文献]
[1]粱路宏,艾海舟,徐光韦占,等.人脸检测研究综述[J].计算
机,2002,25(5):449—458.
[2]VIOLAP,JONESM.RapidObjectDetectionUsingaBoostedCascadeofSimpleFeatures[C].USA:IEEECVPR,2001:511—518.
[3]FREUNDY,SCHAPIRERE.Adecision—theoreticgeneralizationofon—linelearningandaIiapplicationtoboosting[J].Journalof
ComputerandSystemSciences,August1997,55(1):119—139.
[4]FRIEDMANJ,HASTIET,TIBSHItL~tNIR.AdditiveLogisticRegression:AStatisticalViewofBoosting[J].AnnalsofStatistics,2000,
28:337—374.
[5]VIOLAP,JONESM.RobustRealtimeObjectDetection[J].InternationalJournalofComputerVision.2004,57(2):137—154.
AfaceDetectionBasedonaWeightedLeastSquaresErrorBoostingAlgorithm
ZHONGXiang—yang,HUShi—ming
(DepartmentofComputerScienceandTechnology,flayingUniversity,Meizhou514015,China)
Abstract:RecentlyAdaBoostalgorithmwassuccessfullyappliedtosolvetheproblemsoffacedetection.
ThispaperpresentsafacedetectionbasedonaweightedleastsquareselTorboostingalgorithm.Firstthis
methodtrainstheweakhypothesiswiththeminimumweightedleastsquareserrorateachiteration.What
differsfromtheoriginalAdaBoostisthateachweakhypothesisgeneratesnotonlypredictedclassifications,
butalsoestimatetheconfidence—ratedofeachofitspredictions.Then,Thefi
nalhypothesisiscombina—
tionoftheweakhypotheseswhosepredictionsareconfidence——rated.Exp
erimentalresultsprovethatthe
classifiersbasedonaweightedleastsquareserrorboostingalgorithmhaveahigherdetectionratebutalow.
erfalsepositiverate.
Keywords:FaceDetection;AdaBoost;boostingalgorithm;weightedleastsquareserror
一
92—