我有点困惑隐藏层之间激活的用途是什么,我知道隐藏层和输出之间的softmax函数是将概率压缩到[0,1],但隐藏层之间使用sigmoid函数是什么? 隐藏层之间的深度学习激活功能?
-1
A
回答
4
目的是非线性行为添加到网络时,没有它可以表示的官能团的数目是低的,如果你没有非线性激活函数,网络是完全线性的,这对于大多数问题并不是很有用。
每个添加非线性激活的图层也会影响网络输出的非线性行为。这是增加更多图层可以提高准确性的一个原因,因为网络可以更好地表示不同的功能。
1
1.向网络添加非线性表示。
2.请使用Relu,prelu,lrelu代替sigmoid,tanh,因为减少了渐变梯度问题。
相关问题
- 1. 当能见度时隐藏元素之间的差距:隐藏
- 2. 如何应用UI学习自动化的深度学习?
- 3. 深度学习网络的分类
- 4. 云中深度学习的选择iOS
- 5. 深度学习的混乱矩阵
- 6. Keras:密集层和激活层之间的形状不匹配
- 7. Tensorflow激活功能
- 8. 我想用深入的学习来调用分数的功能
- 9. SharePoint 2007:通过代码不激活功能激活事件激活功能
- 10. 图像分类深度学习
- 11. Keras深度学习模型到android
- 12. 哪些算法涉及深度学习?
- 13. 如何培养深度学习网络
- 14. 哪个深度学习库支持在手机上使用的深度学习模型的压缩?
- 15. 激活隐藏进程的窗口
- 16. 努力学习壳功能
- 17. 隐藏一层或多层放大openlayers 3的功能?
- 18. 学习活动
- 19. SharePoint功能激活表
- 20. 激活节点功能
- 21. Theano HiddenLayer激活功能
- 22. Java学习层次
- 23. 角度显示和隐藏功能
- 24. 深入学习chatbot培训
- 25. 深q学习不收敛
- 26. 隐藏由能见度引起的额外间距:隐藏
- 27. js隐藏功能
- 28. 为什么NLP和机器学习社区对深度学习感兴趣?
- 29. 机器学习中的参数,功能和类别之间的区别
- 30. 撤消或取消激活或删除branch.io的深层链接
我想添加[通用逼近定理](https://en.wikipedia.org/wiki/Universal_approximation_theorem),其中指出至少有一个(非线性)隐藏层(无限大小)的神经网络可以近似任何功能。 – Lunaweaver