2016-11-23 85 views

回答

4

目的是非线性行为添加到网络时,没有它可以表示的官能团的数目是低的,如果你没有非线性激活函数,网络是完全线性的,这对于大多数问题并不是很有用。

每个添加非线性激活的图层也会影响网络输出的非线性行为。这是增加更多图层可以提高准确性的一个原因,因为网络可以更好地表示不同的功能。

+0

我想添加[通用逼近定理](https://en.wikipedia.org/wiki/Universal_approximation_theorem),其中指出至少有一个(非线性)隐藏层(无限大小)的神经网络可以近似任何功能。 – Lunaweaver

1

1.向网络添加非线性表示。

2.请使用Relu,prelu,lrelu代替sigmoid,tanh,因为减少了渐变梯度问题。