找答案
考试指南
试卷
请在
下方输入
要搜索的题目:
搜 索
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
A、tanh
B、sigmoid
C、relu
D、leaky ReLU
发布时间:
2025-05-08 14:16:54
首页
执业药师继续教育
推荐参考答案
(
由 快搜搜题库 官方老师解答 )
联系客服
答案:
sigmoid
相关试题
1.
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
2.
Sigmoid激活函数可能会导致梯度消失;然而Tanh激活函数不会导致这个问题
3.
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题。( )
4.
激活函数是非线性的,以下哪些激活函数是神经网络中常用的激活函数:
5.
以下哪个不可以用作神经网络中激活函数的是( )。
6.
在神经网络中,常用的激活函数有
7.
Sigmoid激活函数在神经网络中引入了非线性。
8.
深度学习是含有一个隐含层的多层神经网络模型的强化学习,训练过程加入了激活函数。
9.
反向传播的作用是训练模型参数,在所有参数上用梯度下降,使神经网络模型在训练数据上的损失函数最大。( )
10.
在深度学习中,梯度消失问题通常发生在循环神经网络(RNN)中。( )
热门标签
银行柜员考试题库
教师资格证面试结构化面试题库
教师资格面试题库
中公教育题库
体育理论考试题库
护士资格考试题库
常识题库及答案
公安辅警考试题库
中国银行考试题库
时事政治题库
教师资格证面试结构化题库
城管考试题库
北京题库
法律基础知识题库
法律常识题库
公共基础知识考试题库
综合能力测试题库
公共基础知识题库
华图砖题库
公务员面试题库及答案