常用激活函数
常用激活函数
重点关注ReLU(max(0,x)),Sigmoid(0-1),Softmax(0-1概率)
神经网络之softmax(作用,工作原理【示例说明】,损失计算)_softmax层-CSDN博客
预处理直接做原始图片 (224 * 224 * 3)
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 Roger-Lv's space!
评论
重点关注ReLU(max(0,x)),Sigmoid(0-1),Softmax(0-1概率)
神经网络之softmax(作用,工作原理【示例说明】,损失计算)_softmax层-CSDN博客
预处理直接做原始图片 (224 * 224 * 3)