单项选择题

A.靠近输出层的hidden layer 3的权值更新正常,但是靠近输入层的hidden layer 1的权值更新非常慢,导致其权值几乎不变,仍接近于初始化的权值,这种现象叫做梯度小事
B.造成梯度消失的原因是过深的深度学习模型,由于梯度反向传导过程中的累积问题,就出现了内在本质上的不稳定场景,另一方面是模型激活函数不太合适
C.使用Relu函数作为激活函数、增加BatchNormal层、使用残差模块等缓解梯度爆炸
D.以上全部