常见激活函数
Sigmoid 型激活函数
- Logistic 函数,值域\(0 \sim 1\) \[\sigma(x)=\frac{1}{1+\exp (-x)} \]
- Tanh 函数,值域\(-1 \sim 1\) \[\tanh (x)=2 \sigma(2 x)-1 \]
修正线性单元
- ReLU \[\begin{aligned} \operatorname{ReLU}(x) &=\left\{\begin{array}{ll}{x} & {x \geq 0} \\ {0} & {x<0}\end{array}\right.\\ &=\max (0, x) \end{aligned} \] 优点 缺点 非零中心化 / 死亡 ReLU 问题
- LeakyReLU 在输入 \(x < 0\)时,保持一个很小的梯度\(\lambda\) \[\text{LeakyReLU}(x)=\left\{\begin{array}{ll}{x} & {\text { if} x>0} \\ {\gamma x} & {\text { if} x \leq 0}\end{array}\right. \]
- PReLU 引入一个可学习的参数,不同神经元可以有不同的参数 \[\operatorname{PReLU}_{i}(x)=\left\{\begin{array}{ll}{x} & {\text { if} x>0} \\ {\gamma_{i} x} & {\text { if} x \leq 0}\end{array}\right. \]