单项选择题
在构建一个神经网络时,batch size通常会选择2的次方,比如256和512。这是为什么呢?()
A.当内存使用最优时这可以方便神经网络并行化B.当用偶数是梯度下降优化效果最好C.这些原因都不对D.当不用偶数时,损失值会很奇怪
单项选择题 对深度学习中梯度消失的描述正确的是()。
单项选择题 假设一个二分类问题,现在采用一个大于0.5的阈值,那么关于模型的说法正确的是()。
单项选择题 Xavier初始化是最为常用的神经网络权重初始化方法Xavier初始化是用来帮助信号能够在神经网络中传递得更深,下面哪些叙述是对的?()1.如果权重一开始很小,信号到达最后也会很小2.如果权重一开始很大,信号到达最后也会很大3.Xavier初始化是由高斯发布引出的4.Xavier初始化可以帮助减少梯度弥散问题