A. signoid函数(也称s型函数)
B. ReLU函数(也称线性整流函数)
C. tanh函数(也称双曲正切s型函数)
D. line函数(也称线性函数)
ReLU激活函数在输入为负时输出为0,可能导致神经元“死亡”。A. 对B. 错
ReLU激活函数在输入为负时输出为0,可能导致神经元“死亡”。A. 对B. 错
[填空题] 目前常用的激活函数有三种:()、()、()。
神经网络中的激活函数的作用是A. 提高模型的计算速度B. 引入非线性因素C. 增加模型的复杂度D. 减少模型的参数数量
[填空题] 神经元网络的组织结构有多种,其中最常用的是()神经元网络和()神经元网络。
在神经网络中,激活函数的作用是:A. 增加计算复杂度B. 引入非线性C. 减少训练时间D. 提高模型的准确率
神经网络中ReLU激活函数的作用是?A. 引入非线性特性B. 降低计算复杂度
[填空题] 感觉神经元多为()神经元,运动神经元多为()神经元,中间神经元多为()神经元。
以下哪些选项是神经网络中常见的激活函数?A. tanhB. DropoutC. Leaky ReLUD. Sigmoid
卷积神经网络中,ReLU激活函数的主要作用是:( )A. 提取图像频域特征B. 引入非线性并抑制负值响应C. 生成概率分布输出D. 实现特征降维