AlexNet 这项工作的贡献有:( )。
A、使用修正的线性单元(ReLU)作为非线性激活函数
B、在训练的时候使用 Dropout 技术有选择地忽视单个神经元,以避免模型过拟合
C、覆盖进行较大池化,避免平均池化的平均化效果
D、使用 GPU NVIDIA GTX 580 减少训练时间
发布时间:2025-08-01 16:05:05
A、使用修正的线性单元(ReLU)作为非线性激活函数
B、在训练的时候使用 Dropout 技术有选择地忽视单个神经元,以避免模型过拟合
C、覆盖进行较大池化,避免平均池化的平均化效果
D、使用 GPU NVIDIA GTX 580 减少训练时间