batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现;运行无误,示例为mnist手写体识别
2019-12-21 22:06:55 790KB batch/layer norma lization
1
GRU(Gated Recurrent Unit)神经网络是LSTM 的一个变体,GRU 在保持了LSTM 的效果同时又使结构更加简单,是一种非常流行RNN 神经网络,它只有两个门了,分别为更新门t z 和重置门tr 。更新门控制前一时刻的状态信息被带入到当前状态中的程度,值越大前一时刻的状态信息带入越多。重置门控制忽略前一时刻的状态信息的程度,值越小说明忽略得越多。
2019-12-21 20:49:41 208KB GRU 神经网络 Gated Recurr
1
深入理解RNN和LSTM,对LSTM的解剖深刻,每一个公式意义说明详细。
2019-12-21 19:57:01 1.08MB RNN LSTM GRU
1
基于Keras的GRU神经网络实现 Python编写 可以直接运行得到结果
2019-12-21 19:39:47 8KB GRU Keras Python 神经网络
1
Keras训练CNN+GRU+CTC不定长中文识别模型工程代码,含模型文件
2019-12-21 19:38:27 74.71MB CTC、GRU
1
循环神经网络GRU模型Matlab 代码,可直接运行,用于学习。
2019-12-13 08:43:00 448KB w'w
1