单项选择题
下面有关激活函数说法错误的是:()
A.Sigmoid容易饱和,出现梯度消失
B.LeakyRelu是Relu的一个变种,他在x< 0部分输出不为0
C.Tanh存在梯度消失问题,但是是0均值,而且收敛速度比sigmoid慢
D.Relu收敛速度比sigmoid和tanh快很多,可以缓解梯度消失现象
点击查看答案&解析
相关考题
-
单项选择题
LSTM相比传统RNN,有什么优点?()
A.避免梯度消失
B.避免梯度爆炸
C.避免数据量不足导致训练不充分 -
单项选择题
以下关于迁移学习说法错误的是:()
A.迁移学习是机器学习技术的一种,可以把为一个任务开发的模型重新用在另一个不同的任务中,并作为另一个任务模型的起点
B.在预测模型上使用迁移学习可以从可用的模型(别人训练好的)中选择预训练的元模型,用作另一个模型的起点
C.迁移学习适用于任意的深度学习场景
D.迁移学习是一种优化方法,能节省时间或获得更好的性能 -
问答题
boosting算法和bagging家族算法的区别是什么?常用的boosting算法和bagging算法有哪些?