找答案
考试指南
试卷
请在
下方输入
要搜索的题目:
搜 索
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
A、tanh
B、sigmoid
C、relu
D、leaky ReLU
发布时间:
2025-05-08 14:16:54
首页
执业药师继续教育
推荐参考答案
(
由 快搜搜题库 官方老师解答 )
联系客服
答案:
sigmoid
相关试题
1.
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
2.
Sigmoid激活函数可能会导致梯度消失;然而Tanh激活函数不会导致这个问题
3.
下列哪些方案可以缓解深度神经网络中的梯度消失问题?A、使用sigmoid激活函数B、使用tanh激活函数C、使用ReLU激活函数D、使用残差连接
4.
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题。( )
5.
激活函数是非线性的,以下哪些激活函数是神经网络中常用的激活函数:
6.
以下哪个不可以用作神经网络中激活函数的是( )。
7.
在神经网络中,常用的激活函数有
8.
Sigmoid激活函数在神经网络中引入了非线性。
9.
神经网络在学习时是以损失函数的梯度信息为线索来找最优参数。( )
10.
人工神经网络常见的激活函数形式有哪几种?BP网络中采用的激活函数是那种形式?
热门标签
小学语文面试真题题库
公共基础知识3500题库
统考题库
教师进城考试题库
体育教师考试题库
国家电网企业文化题库
计算机专业知识题库
司考题库
事业编考试题库
事业编制考试题库
校招笔试题库
题库资料
公务员行政能力测试题库
金融考试题库
公考面试题库
辅警考试题库
国家电网考试题库
题库专家
公文写作题库
试卷题库