摘要:基于多分類(lèi)器融合,首先提取行人的運(yùn)動(dòng)前景,計(jì)算校正透視效應(yīng)之后的前景面積,提取圖像的有效Harris角點(diǎn)和SURF點(diǎn)信息,并由此得到反映行人遮擋程度的遮擋系數(shù),從而構(gòu)造特征向量,輸入BP神經(jīng)網(wǎng)絡(luò)建立回歸模型;然后提取行人的HOG特征,采用Adaboost級(jí)聯(lián)分類(lèi)器訓(xùn)練出相應(yīng)的行人檢測(cè)器,檢測(cè)每幀視頻的行人并統(tǒng)計(jì)數(shù)量;最后基于前兩個(gè)分類(lèi)器,用stacking的策略構(gòu)造了組合分類(lèi)器,并實(shí)現(xiàn)分類(lèi)器融合時(shí)權(quán)值的自適應(yīng)調(diào)整.通過(guò)與現(xiàn)有算法進(jìn)行對(duì)比,算法的效果優(yōu)于其他算法,對(duì)復(fù)雜場(chǎng)景適應(yīng)性強(qiáng)且滿(mǎn)足實(shí)時(shí)性要求.
注:因版權(quán)方要求,不能公開(kāi)全文,如需全文,請(qǐng)咨詢(xún)雜志社
北大期刊 下單
國(guó)際刊號(hào):0465-7942
國(guó)內(nèi)刊號(hào):12-1105/N
雜志詳情