为了正常的体验网站,请在浏览器设置里面开启Javascript功能!

【word】 基于加权最小平方误差boosting的人脸检测

2017-11-17 10页 doc 25KB 8阅读

用户头像

is_036899

暂无简介

举报
【word】 基于加权最小平方误差boosting的人脸检测【word】 基于加权最小平方误差boosting的人脸检测 基于加权最小平方误差boosting的人脸检 测 第26卷第3期 2008年6月 嘉应学院(自然科学) JOURNALOFJIAYINGUNIVERSITY(NATURALSCIENCE) Vo1.26No.3 Jun.2oo8 基于加权最小平方误差boosting的人脸检测 .钟向阳,胡仕明 (嘉应学院计算机科学与技术系,广东梅州514015) [摘要]近年来Adaboost算法被成功地用于人脸检测中,本文给出了一种基于加权最小平方误差boo...
【word】 基于加权最小平方误差boosting的人脸检测
【word】 基于加权最小平方误差boosting的人脸检测 基于加权最小平方误差boosting的人脸检 测 第26卷第3期 2008年6月 嘉应学院(自然科学) JOURNALOFJIAYINGUNIVERSITY(NATURALSCIENCE) Vo1.26No.3 Jun.2oo8 基于加权最小平方误差boosting的人脸检测 .钟向阳,胡仕明 (嘉应学院计算机科学与技术系,广东梅州514015) [摘要]近年来Adaboost算法被成功地用于人脸检测中,本文给出了一种基于加权最小平方误差boos. ring算法的人脸检测.首先本方法在每一次循环中用加权最小平方误差准则训练弱假设,与原始Ada. boost算法不同的是弱假设的生成不仅用于预测分类,而且用于估计每次预测的自信率,然后由这组合 自信率的弱假设集成构造出强分类器.实践表明基于加权最小平方误差boosting算法的分类器有较高 的检测率和较低的正样本误检率. [关键词]人脸检测;Adaboost;boosting算法;加权最小平方误差 [中图分类号]TP391.41[文献标识码]A[文章编号]1006—642X(2008)03—0089—04 O引言 人脸检测问题研究具有很重要的意义,可以应用到人脸识别,新一代的人机界面,安全访问和视 觉监控以及基于内容的检索等领域.2O世纪9O年代出现了不少人脸检测的方法…,这些方法取得 了一定的精度,但检测速度较慢.2001年,PaulViola和MichaelJones提出了一种实时的人脸检测系 统【2,解决了检测速度的问题,同时取得了较好的检测效果.该人脸检测系统是一种综合了矩形特 征与积分图,Adaboost算法,Cascade分类器的实时系统,其中Adaboost算法是一种自适应的boosting 算法,利用该算法可以将一组弱学习算法提升为一个强学习算法,基本思想是当分类器对某些样本 正确分类时,减少这些样本的权值;当错误分类时,则增加这些样本的权值,让学习算法在后续的学 习中集中对比较难的训练样本进行学习,最终得到一个识别准确率理想的分类器. 早在1997年Freund和Schapire【3就提出了Adaboost算法,2000年JeromeFriedman【4等从统计 学的角度解释了boosting方法,系统地介绍了DAB(DiscreteAdaboo 的选择,权系数的;确定,样本权重的更新三部分. 弱分类器的选择是根据正负样本的分布D寻找最优的h().在Viola的方法中,每一轮弱分 [收稿日期]2008一o4一O1 [作者简介]钟向阳(1971一),男,广东梅州人,讲师,硕士,主要研究方向:图像处理的模式区别. 一 89— 类器的选择是从样本特征值集中根据分类错误最小准则来挑选的,其准则函数为: ,=min.8?Ih(xf,P,)一YI, 其中弱分类器h)=<p肭特为阖值,l为方向指旒权系 数.Viola的方法是首先对于每个特征厂计算所有训练样本的特征值,并将其按顺序排队;然后在分 类错误最小准则下从头到尾扫描一遍已排好序的特征值,通过计算: e=rain(S+(一一S一),S一+(,S)), 其中S,S一分别表示在此元素前的人脸及非人脸样本的权重和,,一为全部人脸及非人脸样本的 权重和.由此计算出的最小误差对应的特征值作为最佳分类阀值,所得到的弱分类器h()可在 当前元素处把样本分开一即0前的所有元素分类为人脸(或非人脸)特征,而0后的所有元素分类为 非人脸(或人脸)特征,这样就得到了一个最佳弱分类器. 确定了弱分类器h()后,由于h()被限制为{0,1}二值,需要选择一个参数O/?R来估计 h()的重要程度,由最小化误差函数z(O/)=D(i)e’(令一阶导数Z’(O/)=0)可求得O/= In(_/2).这样,经过次循环后,用加权多数投票把个弱分类器的输出联合起来得到强分类 器H()=sign(?h()). 确定了当前的Ol和ht()后,AdaBoost方法更新样本对应的权重….=?卜,式中=(1 一 )一,如果第i个样本被正确分类,则=0,反之e=1,让学习算法在后续的学习中集中对比 较难的训练样本进行学习而进入下一轮循环. 2基于加权最小平方误差boosting方法的原理 JeromeFriedman等在2000年从统计学的角度解释了boosting方法,将Adaboost方法看成是对指 数误差准则函数_,(F)=E(e-yF(x))最小化的一种优化,其中E代表期望.设,厂2,…代表一组弱 假设,则强假设F()=?()是由这组弱假设构成的集成假设,假定已有当 前的估计F,通过最 小化准则函数: _,(F+=EVe—y’’),(](I) 来寻求改进F+厂,最优化的常见方法有最陡下降法,牛顿迭代法等, 文献采用自适应牛顿迭代法来 优化准则函数_,(F+,由牛顿法可求得: F()+--F()一日()一s(). 由——阶导数s()=鱼I):.=一E[e—y,)),I] - g?-~tH()=鱼I,():.=E[e-Ye(‘)Ix] 删)?+[ylx](2) 其中Ew[ylx]表示加权e一h的条件期望,由此可得弱假设为: )=E[e一),]{E[e一]},=E[ylx]. 每次迭代的权值修改由下式: r+l=f?e一’ ,(3) 一 90— 为了优化弱假设),将准则函数J(F+展开成关于)=0的二阶式,由此估 计出): )乍arg呼以[(),一))I](4) 3基于加权最小平方误差boosting方法的实现 参考上述的原理,本文采用基于加权最小平方回归方法进行弱学习,利用弱学习得到样本特征 的自信率(本文用样本特征的相似程度描述)预测弱假设),这样弱假设)可以定义在整个实 数范围内而不是被限制在二值,即)不仅可用于对样本分类,且可以对弱分类器的重要程度进行 度量,并由这组包含自信率的弱假设集成构造出强分类器. 首先,弱分类器的选择采用了基于加权最小平方回归的方法.根据加权最小平方回归的方法, 当满足minE(Y一))I]时估计出最优弱假设).与Viola的方法相同,首先从头到尾扫描 一 遍排序好的特征值,然后利用加权最小平方回归方法计算下式的最优值,结果对应的特征值作为 分类阀值0可将样本特征分为人脸特征或非人脸特征. ,=?l[(Y—,)+(Y一)] 式中,和f为当前所选阀值0前和0后两边正例和反例样本分布的加权密度估计,其中: 一丝n一互?!.一 ?:l’一?—lf ‘ 由此得出的弱假加鬈,为分类阀值,棚样本特征值,和表示 对人脸样本特征或非人脸样本特征的相似程度,可用于度量当前()的重要性,即自信率. 其次,调整输出强分类器为sign[F?]=sign[T圳.由于弱假设 是准则函数rainZ,~.[(Y一)+(Y-g)]下求得的实值函数,,和反映对人脸特征或非人 脸特征的的相似程度,因此可直接由T个弱假设()叠加生成的m;n个样本特征毋,_『=0,1,…,rt;所 有样本初始化权值.,循环次数 r1/2uifYf=1 1< ‘【1/2vifY,=一1 STEP2:fort=1,2,….,T反复在当前权重分布下训练弱假设(): 1)对所有样本的特征值g()进行由小到大排序. 2)f0rJ=1,…,rt;(按已排序好的特征值从头到尾对于每个特征扫描一遍) a.计算该特征g,()下所有正例(),=1)和反例(),=一1)样本分布的加权密度估计情况: B=t(.,.),…,(,)].: ,=?:l?Y(?:l)一,=?I+l?Y(I;7_-I+l)一;’ 一 9】一 b.对所有特征用加权最小平方回归法计算加权的密度估计B与Y的误差函数: 占=ZiL1W(Y—)+(Y一卢]粥 c.从{占.,s,…,占,)中搜索出最小误差对 应的特征值:=argmin{占,…,). 3)求得最佳弱假设()及其阀值0:. 胁溺嘲88 4)F()=F()+().s 5)样本权重的修改W…=W.Xe-yf(xi)82 6)重新归一化W川=W/?W STEP3:F()=?:() 0501001502002503O0350 图1两种算法 输出强分类器为sign[F()]={l_】?,为强分类器阀值.输出强分类器为[()]={.,:’,为强分类器阀值.’,,U 4算法的性能测试 为检测加权最小平方误差boosting算法的性能,本文参考Viola的方法训练生成了两组人脸检测 器并进行了验证.第一组基于Adaboost算法,第二组基于加权最小平方误差boosting算法,实验采用 的训练集中,正样本采用5000幅人脸图像,负样本采用5000幅非人 脸图像,每幅样本图像大小为 24X24像素,共提取45936个矩形特征,生成了32级的人脸检测器. 对所生成人脸检测器的验证 采用了CMU正面人脸测试集,该测试集包含130幅灰度图像(有507 个人脸),检测结果如图1.如 当检测率为90%时,第一组误检的正样本为61个,正样本误检率为 3.227181×10,,第二组误检的 正样本为39个,正样本误检率为2.063279X10,.实验结果表明,基于 加权最小平方误差boosting 算法的检测器与基于Adaboost算法相比,在相同的检测率下可得到 较低的正样本误检率. [参考文献] [1]粱路宏,艾海舟,徐光韦占,等.人脸检测研究综述[J].计算 机,2002,25(5):449—458. [2]VIOLAP,JONESM.RapidObjectDetectionUsingaBoostedCascadeofSimpleFeatures[C].USA:IEEECVPR,2001:511—518. [3]FREUNDY,SCHAPIRERE.Adecision—theoreticgeneralizationofon—linelearningandaIiapplicationtoboosting[J].Journalof ComputerandSystemSciences,August1997,55(1):119—139. [4]FRIEDMANJ,HASTIET,TIBSHItL~tNIR.AdditiveLogisticRegression:AStatisticalViewofBoosting[J].AnnalsofStatistics,2000, 28:337—374. [5]VIOLAP,JONESM.RobustRealtimeObjectDetection[J].InternationalJournalofComputerVision.2004,57(2):137—154. AfaceDetectionBasedonaWeightedLeastSquaresErrorBoostingAlgorithm ZHONGXiang—yang,HUShi—ming (DepartmentofComputerScienceandTechnology,flayingUniversity,Meizhou514015,China) Abstract:RecentlyAdaBoostalgorithmwassuccessfullyappliedtosolvetheproblemsoffacedetection. ThispaperpresentsafacedetectionbasedonaweightedleastsquareselTorboostingalgorithm.Firstthis methodtrainstheweakhypothesiswiththeminimumweightedleastsquareserrorateachiteration.What differsfromtheoriginalAdaBoostisthateachweakhypothesisgeneratesnotonlypredictedclassifications, butalsoestimatetheconfidence—ratedofeachofitspredictions.Then,Thefi nalhypothesisiscombina— tionoftheweakhypotheseswhosepredictionsareconfidence——rated.Exp erimentalresultsprovethatthe classifiersbasedonaweightedleastsquareserrorboostingalgorithmhaveahigherdetectionratebutalow. erfalsepositiverate. Keywords:FaceDetection;AdaBoost;boostingalgorithm;weightedleastsquareserror 一 92—
/
本文档为【【word】 基于加权最小平方误差boosting的人脸检测】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。 本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。 网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。

历史搜索

    清空历史搜索