在ANN中,正向传播期间的方程为Y = W.X + b
。
RNN正向传播期间的方程是什么,因为它涉及States
和Timesteps
。
ANN
和RNN
之间在反向传播方面有什么区别。
此外,ANN中的Dropout
和RNN中的Recurrent_Dropout
在功能上有什么区别。
ANN
和RNN
之间是否还有其他关键区别。
答案 0 :(得分:2)
以简单形式考虑Two Timesteps
的RNN正向传播方程如下所示:
第一步的输出:Y0 = (Wx * X0) + b)
第二步的输出:Y1 = (Wx * X1) + Y0 * Wy + b
其中Y0 = (Wx * X0) + b)
要详细说明,请考虑RNN
有5个Neurons/Units
,下面的屏幕快照中提到了更详细的等式:
Equation of Forward Propagation of RNN
RNN中的反向传播:
cost
函数C(y(t(min)), y(t(min+1)), ... y(t(max)))
评估输出序列(其中tmin
和tmax
是第一和最后一个输出时间步长,不计算忽略的输出),并且该成本函数的梯度通过展开的网络向后传播在下面的屏幕截图中,虚线表示Forward Propagation
,实线表示Back Propagation
。
Flow of Forward Propagation and Back Propagation in RNN
下降:如果我们在Dropout
(LSTM)中将0.1
的值设置为Recurrent Layer
,则意味着它将仅传递90%的值。输入到递归层
循环丢弃如果在Recurrent Dropout
(LSTM)中将0.2
的值设置为Recurrent Layer
,则意味着它将仅考虑80%的值。循环层的时间步长
希望这能回答您的所有查询!