判断题
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题。
正确(↓↓↓ 点击‘点击查看答案’看答案解析 ↓↓↓)
判断题 Dropout率(神经元的激活率)越高,正则化程度越高。
判断题 梯度为0的点不一定是局部极值。
判断题 所有深度学习模型都是神经网络。