摘要:針對傳統(tǒng)的RNN算法存在梯度消失的缺陷,在面對海量新聞數(shù)據(jù),規(guī)模大且分類屬性多的情況下存在效率低的問題,該文應(yīng)用了傳統(tǒng)的RNN模型改進后的LSTM神經(jīng)網(wǎng)絡(luò)算法,加入了預(yù)訓練的word2vec模型。首先對新聞數(shù)據(jù)進行去除停用詞及標點、格式轉(zhuǎn)化、分詞等預(yù)處理;其次進行特征提取、分類模型構(gòu)造;最后進行了分類模型訓練與測試。測試數(shù)據(jù)表明,在大數(shù)據(jù)量的情況下,使用LSTM算法具有較高的模型準確度和良好的擴展性。
注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社