AI笔记
1.常用激活函数
- Sigmoid 函数
\[ \sigma (x) = \frac{1}{1+e^{-x}} \]
双曲正切函数 \[ tanhx =\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}} \]
ReLU函数(Rectified Linear Unit) \[ relu(x)=max(0,x) \]
2.归一化
归一化特征值,消除属性之间量级不同导致的影响;压缩数据空间
\[ newValue = \frac{oldValue-min}{max-min} \]
注:max和min分别为数据集中数据的最大值和最小值。
##3.贝叶斯准则 > 贝叶斯准则告诉我们如何交换条件概率中的条件和结果
\[ p(c|x)=\frac{p(x|c)p(c)}{p(x)} \]
实际使用: \[ p(类别|特征)=\frac{p(特征|类别)p(类别)}{p(特征)} \]