逻辑斯蒂回归:判别模型,分类
二项逻辑斯蒂回归思路: 线性回归的预测值为一系列实值,为了使输出值变成分类所需的0和1,需要有一个映射将线性回归的输出变在(0,1)之间。这个函数为sigmoid函数。 s i g m o i d ( x ) = 1 1 + e − x sigmoid(x)=\frac{1}{1+\mathrm{e}^{-x }} sigmoid(x)=1+e−x1 将线性函数y = wx+b 先合并b到矩阵中:y = w’x’,代入到sigmoid函数中: y ( x ) = 1 1 + e − w x y(x)=\frac{1}{1+\mathrm{e}^{-wx }} y(x)=1+e−wx1 但是现在只是将输出限定在(0,1)间,还没有完成0、1二分类,应该出现一个阈值作为0或者1的判断界限。这个阈值就是要学习的东西,反映在参数上就是w和b。 p 1 = P ( Y = 1 ∣ x ) = exp ( w ⋅ x ) 1 + exp ( w ⋅ x ) p_{1} = P(Y=1 \mid x)=\frac{\exp (w \cdot x)}{1+\exp (w \cdot x)} p1=P(Y=1∣x)=1+exp(w⋅x)exp(w⋅x) p 0 = P ( Y = 0 ∣ x ) = 1 1 + exp ( w ⋅ x ) p_{0} = P(Y=0 \mid x)=\frac{1}{1+\exp (w \cdot x)} p0=P(Y=0∣x)=1+exp(w⋅x)1 P ( y ∣ x ) = p 1 y p 0 1 − y P(y \mid x)=p_{1}^{y} p_{0}^{1-y} P(y∣x)=p1yp01−y 那么目的就是将 P ( y ∣ x ) P(y \mid x) P(y∣x)最大化,输出使它最大化的w和b 具体推导: 其中的 φ \varphi φ表示 exp ( w ⋅ x ) 1 + exp ( w ⋅ x ) \frac{\exp (w \cdot x)}{1+\exp (w \cdot x)} 1+exp(w⋅x)exp(w⋅x)
二项逻辑斯蒂回归可以推广至多项逻辑斯蒂回归,原理使一样的,只是分类不在只是0和1。
最大熵模型:判别模型
核心:解决约束最优化问题
思想:在给定训练集下,即给定约束(经验知识)下,能够得到符合约束的条件概率模型集合{P(y|X)}。其中,约束通过特征函数关联到条件概率,条件概率通过熵进行选择。
最大熵:在约束条件的情况下,会出现很多个满足约束条件的模型,其中该选哪一个呢?选择熵最大的,也就是最无法确定的是最符合自然规律的。
推导:根据约束和最大熵变为约束最优化问题,也就是一个方程组。 max P ∈ C H ( P ) = − ∑ x , y P ~ ( x ) P ( y ∣ x ) log P ( y ∣ x ) s.t. E P ( f i ) = E p ~ ( f i ) , i = 1 , 2 , ⋯ , n ∑ y P ( y ∣ x ) = 1 \begin{array}{cl}\max _{P \in C} & H(P)=-\sum_{x, y} \tilde{P}(x) P(y \mid x) \log P(y \mid x) \\ \text { s.t. } & E_{P}\left(f_{i}\right)=E_{\tilde{p}}\left(f_{i}\right), \quad i=1,2, \cdots, n \\ & \sum_{y} P(y \mid x)=1\end{array} maxP∈C s.t. H(P)=−∑x,yP~(x)P(y∣x)logP(y∣x)EP(fi)=Ep~(fi),i=1,2,⋯,n∑yP(y∣x)=1
这里的约束条件是:训练集样本经验分布的期望 E p ~ ( f i ) E_{\tilde{p}}\left(f_{i}\right) Ep~(fi)=模型的期望 E P ( f i ) E_{P}\left(f_{i}\right) EP(fi)。以及所有情况的条件概率和为1。 这里的最大熵为: P ( y ∣ x ) P(y \mid x) P(y∣x)的条件熵,也就是: max p ϵ C H ( P ) = − ∑ x , y P ~ ( x ) P ( y ∣ x ) log P ( y ∣ x ) \max _{p_{\epsilon} \mathbf{C}} \quad H(P)=-\sum_{x, y} \tilde{P}(x) P(y \mid x) \log P(y \mid x) pϵCmaxH(P)=−x,y∑P~(x)P(y∣x)logP(y∣x)这里转化为高数问题,运用拉格朗日乘子法计算约束问题