摘要:關(guān)于面部表情識(shí)別的應(yīng)用也正在滲透至各個(gè)領(lǐng)域,如安全駕駛、商品銷售、臨床醫(yī)學(xué)等等.本文對(duì)面部表情識(shí)別相關(guān)技術(shù)進(jìn)行研究,主要工作及貢獻(xiàn)如下:研究非約束條件下人臉動(dòng)態(tài)表情識(shí)別,提出了一種基于多視覺描述子及音頻特征融合策略的動(dòng)態(tài)表情識(shí)別算法.借助多視覺描述子的空時(shí)局部特征描述實(shí)現(xiàn)動(dòng)態(tài)表情特征的提取;而視頻、音頻特征的融合策略改善了表情識(shí)別性能.基于協(xié)方差矩陣及時(shí)間軸分段的動(dòng)態(tài)規(guī)整,有效地解決了具有不同時(shí)長(zhǎng)的動(dòng)態(tài)表情序列的樣本描述.為進(jìn)一步改善表情識(shí)別模型的泛化性能,本文引入了基于多個(gè)體識(shí)別模型加權(quán)投票的集成識(shí)別模型.針對(duì)投票過程中的權(quán)值學(xué)習(xí),提出了基于隨機(jī)重采樣的投票權(quán)重學(xué)習(xí)以及基于個(gè)體分類模型相對(duì)優(yōu)勢(shì)的投票權(quán)重學(xué)習(xí)方法.集成決策進(jìn)一步改善了表情識(shí)別性能.基于AFEW5.0的動(dòng)態(tài)表情庫實(shí)驗(yàn)驗(yàn)證了算法的有效性.
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社