问答题
简答题
如果在最后一层中,我们先使用ReLU激活函数,然后再使用Sigmoid函数,会怎样?
【参考答案】
由于ReLU始终会输出非负结果,因此该神经网络会将所有输入预测成同一个类别。
点击查看答案
相关考题
-
问答题
什么是端到端学习?列举一些优点。 -
问答题
什么是多任务学习?应该在什么时候使用? -
问答题
使用Batchnorm有什么优势?
