全文预览

卷积神经网络Convolutional N)

上传者:业精于勤 |  格式:doc  |  页数:10 |  大小:672KB

文档介绍
进行处理,但在Matlab里面,就比较容易处理。Matlab中全卷积会对缺少的输入像素补0 。Р      到这里,我们就可以对b和β计算梯度了。首先,加性基b的计算和上面卷积层的一样,对灵敏度map中所有元素加起来就可以了:Р       而对于乘性偏置β,因为涉及到了在前向传播过程中下采样map的计算,所以我们最好在前向的过程中保存好这些maps,这样在反向的计算中就不用重新计算了。我们定义:Р这样,对β的梯度就可以用下面的方式计算:Р Р3.2.3、binations of Feature Maps 学习特征map的组合Р         大部分时候,通过卷积多个输入maps,然后再对这些卷积值求和得到一个输出map,这样的效果往往是比较好的。在一些文献中,一般是人工选择哪些输入maps去组合得到一个输出map。N在训练的过程中学习这些组合,也就是让网络自己学习挑选哪些输入maps来计算得到输出map才是最好的。我们用αij表示在得到第j个输出map的其中第i个输入map的权值或者贡献。这样,第j个输出map可以表示为:Р         需要满足约束:Р         这些对变量αij的约束可以通过将变量αij表示为一个组无约束的隐含权值cij的softmax函数来加强。(因为softmax的因变量是自变量的指数函数,他们的变化率会不同)。Р         因为对于一个固定的j来说,每组权值cij都是和其他组的权值独立的,所以为了方面描述,我们把下标j去掉,只考虑一个map的更新,其他map的更新是一样的过程,只是map的索引j不同而已。Р         Softmax函数的导数表示为:Р        这里的δ是Kronecker delta。对于误差对于第l层变量αi的导数为:Р         最后就可以通过链式规则去求得代价函数关于权值ci的偏导数了:

收藏

分享

举报
下载此文档