全文预览

RNN,LSTM深度学习模型原理与应用

上传者:徐小白 |  格式:docx  |  页数:5 |  大小:304KB

文档介绍
:其中a表示输入值,b表示激活后的值,I表示所有输入节点,H表示所有隐层节点,C表示某个memoryblock中所有的memorycell。W为边权。S为cell值。t表示时刻。反向传播需要进行详细推倒,主要依据依然是某个节点的输出边来进行误差累加,详情参考文献中的论文。相关文献Hochreiter,S.,&Schmidhuber,J.(1997).Longshort-termmemory.putation,9(8),1735-1780.Gers,F.A.,Schmidhuber,J.,&Cummins,F.(2000).et:ContinualpredictionwithLSTM.putation,12(10),2451-2471.Graves,Alex.works.Vol.385.Springer,2012.Hochreiter,S.,Bengio,Y.,Frasconi,P.,&Schmidhuber,J.(2001).s:thedifficultyoflearninglong-termdependencies.Bengio,Y.,Simard,P.,&Frasconi,P.(1994).Learninglong-termdependencieswithgradientdescentisdifficult.works,IEEETransactionson,5(2),157-166.Maas,A.L.,Daly,R.E.,Pham,P.T.,Huang,D.,Ng,A.Y.,&Potts,C.(2011,June).Learningwordvectorsforsentimentanalysis.putationalLinguistics:HumanLanguageTechnologies-Volume1(pp.142-150).putationalLinguistics

收藏

分享

举报
下载此文档