欢迎来到易学考试网 易学考试官网
全部科目 > 大学试题 > 理学 > 心理学 > 神经语言程序学(NLP)

单项选择题

下面有关激活函数说法错误的是:()

    A.Sigmoid容易饱和,出现梯度消失
    B.LeakyRelu是Relu的一个变种,他在x< 0部分输出不为0
    C.Tanh存在梯度消失问题,但是是0均值,而且收敛速度比sigmoid慢
    D.Relu收敛速度比sigmoid和tanh快很多,可以缓解梯度消失现象

点击查看答案&解析

相关考题

微信小程序免费搜题
微信扫一扫,加关注免费搜题

微信扫一扫,加关注免费搜题